JP2021034085A - Video reproducing device - Google Patents

Video reproducing device Download PDF

Info

Publication number
JP2021034085A
JP2021034085A JP2019154231A JP2019154231A JP2021034085A JP 2021034085 A JP2021034085 A JP 2021034085A JP 2019154231 A JP2019154231 A JP 2019154231A JP 2019154231 A JP2019154231 A JP 2019154231A JP 2021034085 A JP2021034085 A JP 2021034085A
Authority
JP
Japan
Prior art keywords
data
time information
video
packet
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019154231A
Other languages
Japanese (ja)
Inventor
陽介 赤津
Yosuke Akatsu
陽介 赤津
直樹 藤本
Naoki Fujimoto
直樹 藤本
利大 小林
Toshihiro Kobayashi
利大 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019154231A priority Critical patent/JP2021034085A/en
Publication of JP2021034085A publication Critical patent/JP2021034085A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a video reproducing device that reproduces multiple component data in synchronous even if stream data does not include time information packet required to synchronize and reproduce the multiple component data.SOLUTION: In a video reproducing device, a stream control portion acquires first information from stream data and second information from the stream data or data other than the stream data. A time information packet generation portion acquires time information from the second information and generates a time information packet including the time information by using the first information. An extraction portion extracts the time information from the time information packet. A synchronous reproduction portion includes a reference generation portion that generates a reference for synchronously reproducing multiple component data. The synchronous reproduction portion performs synchronous processing for synchronously reproducing the multiple component data according to the reference, and sets the reference according to the time information.SELECTED DRAWING: Figure 2

Description

本発明は、映像再生装置に関する。 The present invention relates to a video reproduction device.

近年においては、テレビジョン放送の高解像度化が進められている。それに伴って、テレビジョン放送に用いられる放送データに、エムペグメディアトランスポート(MMT:Mpeg Media Transport)等の多重化方式が採用されるようになっている。 In recent years, the resolution of television broadcasting has been increasing. Along with this, multiplexing methods such as MMT (Mpeg Media Transport) have come to be adopted for broadcasting data used for television broadcasting.

テレビジョン放送を受信する放送受信装置は、多くの場合は、ハードディスクドライブ(HDD:Hard Disk Drive)、ブルーレイディスク(BD:Blu-ray(登録商標) Disc)等のストレージを利用して、受信したテレビジョン放送を記録/再生することができる。当該放送受信装置は、多くの場合は、ストレージに記録されたテレビジョン放送を再生する際に、再生するテレビジョン放送をデータ化したストリームデータに含まれる時刻情報パケットを用いて、再生するストリームデータから取得される複数のコンポーネントデータを同期して再生する。用いられる時刻情報パケットは、ネットワークタイムプロトコル(NTP:Network Time Protocol)パケット、エムペグ−H−タイムオフセットテーブル(MH−TOT:MPEG-H-Time Offset Table)を含むマルチメディアマルチプレクシングトランスポートプロトコル(MMTP:Multimedia Multiplexing Transport Protocol)パケット等である。取得される複数のコンポーネントデータは、映像データ、音声データ、字幕データ等である。 Broadcast receivers that receive television broadcasts often use storage such as hard disk drives (HDD: Hard Disk Drive) and Blu-ray discs (BD: Blu-ray (registered trademark) Disc) to receive the broadcast. You can record / play television broadcasts. In many cases, when the broadcast receiving device reproduces the television broadcast recorded in the storage, the stream data to be reproduced is reproduced by using the time information packet included in the stream data obtained by converting the television broadcast to be reproduced into data. Synchronously play back multiple component data obtained from. The time information packets used are multimedia multiplexing transport protocol (MMTP) including Network Time Protocol (NTP) packets and MPEG-H-Time Offset Table (MH-TOT). : Multimedia Multiplexing Transport Protocol) Packets, etc. The plurality of component data to be acquired are video data, audio data, subtitle data, and the like.

特許文献1に記載された技術においては、基準となる時刻情報がコンテンツから欠落するために正しく時刻同期して再生処理ができないという課題を解決するために、記録媒体に記録されるコンテンツを構成する複数の第1パケットに含まれる1以上の基準時刻情報のうちの最初の基準時刻情報が、コンテンツの管理情報に含まれるコンテンツの基準時刻及びコンテンツの再生開始時刻として記録される(段落0030−0034)。 In the technique described in Patent Document 1, in order to solve the problem that the reference time information is missing from the content and the playback process cannot be performed correctly in time synchronization, the content recorded on the recording medium is configured. The first reference time information among the one or more reference time information included in the plurality of first packets is recorded as the reference time of the content and the playback start time of the content included in the content management information (paragraph 0030-0034). ).

特開2018−133124号公報JP-A-2018-133124

ストリームデータに含まれる時刻情報パケットを用いてストリームデータから取得される複数のコンポーネントデータを同期して再生する映像再生装置は、複数のコンポーネントデータを同期して再生するために必要な時刻情報パケットがストリームデータに含まれない場合は、複数のコンポーネントデータを同期して再生することができない。例えば、時刻情報パケットがストリームデータに全く含まれない場合は、複数のコンポーネントデータを同期して再生することができない。また、時刻情報パケットがストリームデータに含まれる場合であっても、任意の位置からストリームデータの再生を開始するときは、複数のコンポーネントデータの、再生が開始される位置と時刻情報パケットが含まれる位置との間にある部分を同期して再生することができない。例えば、時刻情報パケットが含まれる位置の前にある部分を同期して再生することができない。 A video playback device that synchronizes and reproduces multiple component data acquired from stream data using the time information packet included in the stream data has the time information packet required to synchronize and reproduce multiple component data. If it is not included in the stream data, multiple component data cannot be played back in synchronization. For example, if the time information packet is not included in the stream data at all, a plurality of component data cannot be played back in synchronization. Even if the time information packet is included in the stream data, when the playback of the stream data is started from an arbitrary position, the position where the playback is started and the time information packet of a plurality of component data are included. The part between the position and the position cannot be played back in synchronization. For example, the part in front of the position containing the time information packet cannot be played back synchronously.

本発明は、この問題に鑑みてなされた。本発明は、記録メディアに記録されたストリームデータから取得される複数のコンポーネントデータを同期して再生するために必要な時刻情報パケットがストリームデータに含まれない場合においても複数のコンポーネントデータを同期して再生することができる映像再生装置を提供することである。 The present invention has been made in view of this problem. The present invention synchronizes a plurality of component data even when the stream data does not include a time information packet necessary for synchronously reproducing a plurality of component data acquired from the stream data recorded on the recording medium. It is to provide a video reproduction apparatus which can reproduce.

映像再生装置は、ストリーム制御部、時刻情報パケット生成部、取り出し部及び同期再生部を備える。 The video reproduction device includes a stream control unit, a time information packet generation unit, an extraction unit, and a synchronous reproduction unit.

ストリーム制御部は、記録メディアに記録されたストリームデータから第1の情報を取得し、ストリームデータ、又は記録メディアに記録された、ストリームデータ以外のデータから第2の情報を取得する。 The stream control unit acquires the first information from the stream data recorded on the recording medium, and acquires the second information from the stream data or data other than the stream data recorded on the recording medium.

時刻情報パケット生成部は、第2の情報から時刻情報を取得し、第1の情報を用いて時刻情報を含む時刻情報パケットを生成する。 The time information packet generation unit acquires time information from the second information and generates a time information packet including the time information using the first information.

取り出し部は、時刻情報パケットから時刻情報を取り出す。 The extraction unit extracts time information from the time information packet.

同期再生部は、ストリームデータから取得される複数のコンポーネントデータを同期して再生するための基準を生成する基準生成部を備える。同期再生部は、基準にしたがって複数のコンポーネントデータを同期して再生するための同期処理を行い、時刻情報にしたがって基準を設定する。 The synchronous reproduction unit includes a reference generation unit that generates a reference for synchronously reproducing a plurality of component data acquired from stream data. The synchronous playback unit performs synchronous processing for synchronously playing back a plurality of component data according to the reference, and sets the reference according to the time information.

本発明によれば、記録メディアに記録されたストリームデータから取得される複数のコンポーネントデータを同期して再生するために必要な時刻情報パケットが、記録メディアに記録されたストリームデータ、又は記録メディアに記録されたストリームデータ及びストリームデータ以外のデータから生成される。このため、当該時刻情報パケットがストリームデータに含まれない場合においても、複数のコンポーネントデータを同期して再生することができる。 According to the present invention, the time information packet required for synchronously reproducing a plurality of component data acquired from the stream data recorded on the recording medium is transferred to the stream data recorded on the recording medium or the recording medium. Generated from recorded stream data and data other than stream data. Therefore, even when the time information packet is not included in the stream data, a plurality of component data can be reproduced in synchronization.

本発明の目的、特徴、局面及び利点は、以下の詳細な説明と添付図面とによって、より明白となる。 The objects, features, aspects and advantages of the present invention will become more apparent with the following detailed description and accompanying drawings.

実施の形態1の映像再生装置を図示するブロック図である。It is a block diagram which illustrates the video reproduction apparatus of Embodiment 1. FIG. 実施の形態1の映像再生装置が処理するデータを図示する図である。It is a figure which illustrates the data processed by the image reproduction apparatus of Embodiment 1. FIG. 実施の形態1の映像再生装置が実行する初期動作の流れを図示するフローチャートである。It is a flowchart which illustrates the flow of the initial operation executed by the image reproduction apparatus of Embodiment 1. FIG. 実施の形態1の映像再生装置が実行するデコード動作の流れを図示するフローチャートである。It is a flowchart which illustrates the flow of the decoding operation executed by the video reproduction apparatus of Embodiment 1. FIG. 実施の形態1の映像再生装置が実行する出力動作の流れを図示するフローチャートである。It is a flowchart which illustrates the flow of the output operation executed by the video reproduction apparatus of Embodiment 1. FIG.

1 実施の形態1
1.1 映像再生装置
図1は、実施の形態1の映像再生装置を図示するブロック図である。図2は、実施の形態1の映像再生装置が処理するデータを図示する図である。
1 Embodiment 1
1.1 Video Reproduction Device FIG. 1 is a block diagram illustrating the video reproduction device of the first embodiment. FIG. 2 is a diagram illustrating data processed by the video playback device of the first embodiment.

実施の形態1の映像再生装置1は、図1に図示されるように、ストリームデータ61及びクリップ情報データ62を記録メディア2から読み出す。また、映像再生装置1は、読み出したストリームデータ61から映像データ、音声データ及び字幕データを取得する。また、映像再生装置1は、取得した映像データ及び字幕データに応じた重畳画像データを生成し、生成した重畳画像データを外部の液晶パネル3に出力する。これにより、映像データに応じた映像と字幕データに応じた字幕とが互いに重ね合わされた重畳映像が液晶パネル3で再生される。また、映像再生装置1は、取得した音声データに応じたパルス符号変調(PCM:Pulse Code Modulation)データを生成し、生成したPCMデータを外部のスピーカー4に出力する。これにより、音声データに応じた音声がスピーカー4で再生される。また、映像再生装置1は、読み出したストリームデータ61及びクリップ情報データ62にしたがって、取得した映像データ、字幕データ及び音声データを同期して再生するための同期処理を実行する。映像再生装置1が、映像データ、字幕データ及び音声データからなる3個のコンポーネントデータと異なる複数のコンポーネントデータを取得し、取得した複数のコンポーネントデータを同期して再生するための同期処理を実行してもよい。映像再生装置1が、重畳画像データを液晶パネル3以外の表示装置に出力してもよい。映像再生装置1が、PCMデータをスピーカー4以外の発音装置に出力してもよい。 As shown in FIG. 1, the video reproduction device 1 of the first embodiment reads the stream data 61 and the clip information data 62 from the recording medium 2. Further, the video reproduction device 1 acquires video data, audio data, and subtitle data from the read stream data 61. Further, the video reproduction device 1 generates superimposed image data according to the acquired video data and subtitle data, and outputs the generated superimposed image data to the external liquid crystal panel 3. As a result, the liquid crystal panel 3 reproduces the superimposed video in which the video corresponding to the video data and the subtitles corresponding to the subtitle data are superimposed on each other. Further, the video reproduction device 1 generates pulse code modulation (PCM) data according to the acquired audio data, and outputs the generated PCM data to the external speaker 4. As a result, the voice corresponding to the voice data is reproduced by the speaker 4. Further, the video reproduction device 1 executes a synchronization process for synchronously reproducing the acquired video data, subtitle data, and audio data according to the read stream data 61 and clip information data 62. The video playback device 1 acquires a plurality of component data different from the three component data composed of video data, subtitle data, and audio data, and executes a synchronization process for synchronously reproducing the acquired plurality of component data. You may. The video reproduction device 1 may output the superimposed image data to a display device other than the liquid crystal panel 3. The video reproduction device 1 may output the PCM data to a sounding device other than the speaker 4.

記録メディア2には、ストリームデータ61及びクリップ情報データ62が記録されている。 Stream data 61 and clip information data 62 are recorded on the recording medium 2.

記録メディア2は、ハードディスクドライブ(HDD:Hard Disk Drive)、デジタル多目的ディスク(DVD:Digital Versatile Disc)、ブルーレイディスク(BD:Blu-ray(登録商標) Disc)等である。 The recording medium 2 is a hard disk drive (HDD: Hard Disk Drive), a digital multipurpose disc (DVD: Digital Versatile Disc), a Blu-ray disc (BD: Blu-ray (registered trademark) Disc), or the like.

ストリームデータ61は、タイプレングスバリュー(TLV:Type Length Value)/エムペグメディアトランスポート(MMT:MPEG Media Transport)規格等に準拠する。したがって、ストリームデータ61は、TLVパケットを含む。TLVパケットは、TLVヘッダ、インターネットプロトコル(IP:Internet Protocol)ヘッダ、ユーザーデータグラムプロトコル(UDP:User Datagram Protocol)ヘッダ及び残余のデータを含む。残余のデータは、マルチメディアマルチプレクシングトランスポートプロトコル(MMTP:Multimedia Multiplexing Transport Protocol)パケットを含む。 The stream data 61 conforms to the Type Length Value (TLV) / MPEG Media Transport (MMT) standard and the like. Therefore, the stream data 61 includes a TLV packet. The TLV packet includes a TLV header, an Internet Protocol (IP) header, a User Datagram Protocol (UDP) header, and residual data. The remaining data includes Multimedia Multiplexing Transport Protocol (MMTP) packets.

ストリームデータ61は、図2に図示されるように、ストリームデータ61から取得される映像データ、音声データ及び字幕データを同期して再生するのに必要な時刻情報パケット63の生成に利用される第1の情報72を含む。第1の情報72は、ストリームデータ61に含まれる先頭のMMTPパケット71の順序を示すパケットシーケンス番号73を含む。 As shown in FIG. 2, the stream data 61 is used to generate a time information packet 63 necessary for synchronously reproducing video data, audio data, and subtitle data acquired from the stream data 61. Contains information 72 of 1. The first information 72 includes a packet sequence number 73 indicating the order of the first MMTP packets 71 included in the stream data 61.

クリップ情報データ62は、ストリームデータ61以外のデータの例である。クリップ情報データ62は、ストリームデータ61を再生するのに必要なデータを含む。 The clip information data 62 is an example of data other than the stream data 61. The clip information data 62 includes data necessary for reproducing the stream data 61.

クリップ情報データ62は、図2に図示されるように、ストリームデータ61から取得される映像データ、音声データ及び字幕データを同期して再生するのに必要な時刻情報パケット63の生成に利用される第2の情報81を含む。第2の情報81は、ストリームデータ61の再生が開始される時刻を示す再生開始時刻82を含む。 As shown in FIG. 2, the clip information data 62 is used to generate the time information packet 63 necessary for synchronously reproducing the video data, the audio data, and the subtitle data acquired from the stream data 61. The second information 81 is included. The second information 81 includes a reproduction start time 82 indicating a time when the reproduction of the stream data 61 is started.

映像再生装置1は、図1に図示されるように、プロセッサ11、映像音声出力部12及びメモリ13を備える。映像再生装置1には、オペレーティングシステム21及びストレージドライバ22がインストールされている。 As shown in FIG. 1, the video reproduction device 1 includes a processor 11, a video / audio output unit 12, and a memory 13. The operating system 21 and the storage driver 22 are installed in the video playback device 1.

プロセッサ11は、オペレーティングシステム21及びストレージドライバ22を実行する。また、プロセッサ11は、ファームウェアを実行することにより、映像再生処理部23として機能する。映像再生処理部23の全部又は一部が、プログラムを実行しないハードウェアにより構成されてもよい。 The processor 11 executes the operating system 21 and the storage driver 22. Further, the processor 11 functions as the video reproduction processing unit 23 by executing the firmware. All or part of the video reproduction processing unit 23 may be configured by hardware that does not execute the program.

映像再生処理部23は、図1に図示されるように、ストリーム制御部31、時刻情報パケット生成部32、パケットパーサー33、デマルチプレクサ(Demuxer)34、デコーダー35、字幕生成部36及び映像字幕重畳部37を備える。 As shown in FIG. 1, the video reproduction processing unit 23 includes a stream control unit 31, a time information packet generation unit 32, a packet parser 33, a demultiplexer 34, a decoder 35, a subtitle generation unit 36, and a video subtitle superimposition. A unit 37 is provided.

Demuxer34は、取り出し部41を備える。デコーダー35は、同期出力用カウンタ42を備える。字幕生成部36は、内部時計43を備える。デコーダー35及び字幕生成部36は、同期再生部51を構成する。同期出力用カウンタ42及び内部時計43は、基準生成部52を構成する。 The Demuxer 34 includes a take-out unit 41. The decoder 35 includes a synchronous output counter 42. The subtitle generation unit 36 includes an internal clock 43. The decoder 35 and the subtitle generation unit 36 constitute a synchronous playback unit 51. The synchronous output counter 42 and the internal clock 43 form a reference generation unit 52.

ストリーム制御部31は、ストリームデータ61を記録メディア2から読み出す。また、ストリーム制御部31は、読み出したストリームデータ61から第1の情報72を取得し、取得した第1の情報72を時刻情報パケット生成部32に送信する。また、ストリーム制御部31は、読み出したストリームデータ61をパケットパーサー33に送信する。 The stream control unit 31 reads the stream data 61 from the recording medium 2. Further, the stream control unit 31 acquires the first information 72 from the read stream data 61, and transmits the acquired first information 72 to the time information packet generation unit 32. Further, the stream control unit 31 transmits the read stream data 61 to the packet parser 33.

また、ストリーム制御部31は、クリップ情報データ62を記録メディア2から読み出し、読み出したクリップ情報データ62から第2の情報81を取得し、取得した第2の情報81を時刻情報パケット生成部32に送信する。ストリーム制御部31が、クリップ情報データ62以外のデータから第2の情報81を取得してもよい。例えば、ストリーム制御部31が、ストリームデータ61から第2の情報81を取得してもよい。 Further, the stream control unit 31 reads the clip information data 62 from the recording medium 2, acquires the second information 81 from the read clip information data 62, and sends the acquired second information 81 to the time information packet generation unit 32. Send. The stream control unit 31 may acquire the second information 81 from data other than the clip information data 62. For example, the stream control unit 31 may acquire the second information 81 from the stream data 61.

また、ストリーム制御部31は、時刻情報パケット63を生成することを指示する時刻情報パケット生成指示を時刻情報パケット生成部32に送信する。また、ストリーム制御部31は、時刻情報パケット生成指示を受信した時刻情報パケット生成部32により生成された時刻情報パケット63をパケットパーサー33に送信する。 Further, the stream control unit 31 transmits a time information packet generation instruction instructing the time information packet 63 to be generated to the time information packet generation unit 32. Further, the stream control unit 31 transmits the time information packet 63 generated by the time information packet generation unit 32 that has received the time information packet generation instruction to the packet parser 33.

時刻情報パケット生成部32は、送信されてきた第1の情報72及び第2の情報81を受信する。時刻情報パケット生成部32は、時刻情報パケット生成指示を受信するのに連動して、受信した第2の情報81から時刻情報92を取得し、受信した第1の情報72を用いて、取得した時刻情報92を含む時刻情報パケット63を生成し、生成した時刻情報パケット63をメモリ13に書き込む。生成される時刻情報パケット63は、エムペグ−H−タイムオフセットテーブル(MH−TOT)を含むMMTPパケット等である。時刻情報パケット63がMH−TOTを含むMMTPパケットである場合は、時刻情報92は、MH−TOTに含められる。 The time information packet generation unit 32 receives the transmitted first information 72 and second information 81. The time information packet generation unit 32 acquires the time information 92 from the received second information 81 in conjunction with receiving the time information packet generation instruction, and acquires the time information 92 using the received first information 72. The time information packet 63 including the time information 92 is generated, and the generated time information packet 63 is written to the memory 13. The time information packet 63 generated is an MMTP packet or the like including an Empeg-H-time offset table (MH-TOT). When the time information packet 63 is an MMTP packet including the MH-TOT, the time information 92 is included in the MH-TOT.

また、時刻情報パケット生成部32は、第1の情報72に含まれる、ストリームデータ61に含まれる先頭のMMTPパケット71の順序を示すパケットシーケンス番号73から、時刻情報パケット63の順序を示すパケットシーケンス番号91を取得する。取得される時刻情報パケット63の順序を示すパケットシーケンス番号91は、ストリームデータ61に含まれる先頭のMMTPパケット71の順序を示すパケットシーケンス番号73より小さくされる。このため、取得される時刻情報パケット63の順序は、ストリームデータ61に含まれる先頭のMMTPパケット71の順序より前にされる。また、時刻情報パケット生成部32は、第2の情報81に含まれる、ストリームデータ61の再生が開始される時刻を示す再生開始時刻82から、時刻情報92を取得する。取得される時刻情報92は、ストリームデータ61の再生が開始される時刻を示す再生開始時刻82より前の時刻を示す。これらにより、時刻情報パケット63が先頭にあるストリームデータを読み出した場合に実行することができる同期処理と同様の同期処理を実行することができる。 Further, the time information packet generation unit 32 starts with the packet sequence number 73 indicating the order of the first MMTP packet 71 included in the stream data 61 included in the first information 72, and the packet sequence indicating the order of the time information packet 63. Get the number 91. The packet sequence number 91 indicating the order of the acquired time information packets 63 is made smaller than the packet sequence number 73 indicating the order of the first MMTP packet 71 included in the stream data 61. Therefore, the order of the acquired time information packets 63 is set before the order of the first MMTP packet 71 included in the stream data 61. Further, the time information packet generation unit 32 acquires the time information 92 from the reproduction start time 82, which is included in the second information 81 and indicates the time when the reproduction of the stream data 61 is started. The acquired time information 92 indicates a time before the reproduction start time 82, which indicates the time when the reproduction of the stream data 61 is started. As a result, it is possible to execute the same synchronization processing as the synchronization processing that can be executed when the stream data at the head of the time information packet 63 is read.

パケットパーサー33は、内部バッファを備える。また、パケットパーサー33は、データ受信処理及びデータパース処理を実行する。 The packet parser 33 includes an internal buffer. Further, the packet parser 33 executes data reception processing and data parsing processing.

また、パケットパーサー33は、データ受信処理を実行する場合は、送信されてきたデータを受信し、受信したデータを内部バッファに蓄積し、データの受信が完了したことを示す受信完了通知をストリーム制御部31に送信する。ただし、パケットパーサー33は、送信されてきたデータを受信した際に、受信したデータのデータサイズ以上の空き容量を内部バッファが有しない場合は、受信したデータのデータサイズ以上の空き容量を内部バッファが有するようになるまでデータ受信処理を停止する。 Further, when executing the data reception process, the packet parser 33 receives the transmitted data, stores the received data in the internal buffer, and stream-controls the reception completion notification indicating that the data reception is completed. It is transmitted to the unit 31. However, when the packet parser 33 receives the transmitted data, if the internal buffer does not have a free space larger than the data size of the received data, the packet parser 33 uses the free space larger than the data size of the received data as the internal buffer. The data reception process is stopped until the data is received.

また、パケットパーサー33は、データパース処理を実行する場合は、内部バッファに蓄積したデータからTLVヘッダを読み出し、読み出したTLVヘッダから当該TLVヘッダを含むTLVパケットのパケットサイズを取得し、取得したパケットサイズを有するデータを内部バッファに蓄積しているか否かを確認する。また、パケットパーサー33は、取得したパケットサイズを有するデータを内部バッファに蓄積していることを確認した場合は、TLVパケットからTLVヘッダ、IPヘッダ及びUDPヘッダを取り除いて、残ったデータをDemuxer34に送信する。また、パケットパーサー33は、取得したパケットサイズを有するデータを内部バッファに蓄積していないことを確認した場合は、次のデータを受信するまでデータパース処理を停止する。 When executing the data parsing process, the packet parser 33 reads the TLV header from the data stored in the internal buffer, acquires the packet size of the TLV packet including the TLV header from the read TLV header, and acquires the acquired packet. Check if data with size is stored in the internal buffer. When the packet parser 33 confirms that the data having the acquired packet size is stored in the internal buffer, the packet parser 33 removes the TLV header, the IP header, and the UDP header from the TLV packet, and transfers the remaining data to the Demuxer 34. Send. If the packet parser 33 confirms that the data having the acquired packet size is not stored in the internal buffer, the packet parser 33 stops the data parsing process until the next data is received.

Demuxer34は、送信されてきたデータを受信し、受信したデータを映像データ、音声データ、字幕データ及び制御情報に分類する。これにより、映像データ、音声データ及び字幕データからなる3個のコンポーネントデータがストリームデータ61から取得される。当該3個のコンポーネントデータと異なる複数のコンポーネントデータがストリームデータ61から取得されてもよい。分類された制御情報は、MMT−シグナリングインフォメーション(MMT−SI:MMT-Signaling Information)等である。 The Demuxer 34 receives the transmitted data and classifies the received data into video data, audio data, subtitle data, and control information. As a result, three component data including video data, audio data, and subtitle data are acquired from the stream data 61. A plurality of component data different from the three component data may be acquired from the stream data 61. The classified control information is MMT-Signaling Information (MMT-SI: MMT-Signaling Information) and the like.

また、Demuxer34は、分類した映像データ及び音声データをデコーダー35に送信する。また、Demuxer34は、分類した制御情報に含まれる、映像データ及び音声データに関する制御情報をデコーダー35に送信する。また、Demuxer34は、分類した字幕データを字幕生成部36に送信する。また、Demuxer34は、分類した制御情報に含まれる、字幕データに関する制御情報を字幕生成部36に送信する。映像データ及び音声データに関する制御情報、及び字幕データに関する制御情報の各々は、MMTパッケージテーブル(MPT:MMT Package Table)等である。 Further, the Demuxer 34 transmits the classified video data and audio data to the decoder 35. Further, the Demuxer 34 transmits the control information related to the video data and the audio data included in the classified control information to the decoder 35. Further, the Demuxer 34 transmits the classified subtitle data to the subtitle generation unit 36. Further, the Demuxer 34 transmits the control information regarding the subtitle data included in the classified control information to the subtitle generation unit 36. Each of the control information related to the video data and the audio data and the control information related to the subtitle data is an MMT Package Table (MPT) or the like.

また、Demuxer34に備えられる取り出し部41は、分類した制御情報に含まれる、時刻情報92を含む制御情報から時刻情報92を取り出し、取り出した時刻情報92を字幕生成部36に送信する。これにより、取り出し部41は、時刻情報パケット63に含まれる時刻情報92を時刻情報パケット63から取り出すことができる。時刻情報92を含む制御情報は、MH−TOT等である。 Further, the extraction unit 41 provided in the Demuxer 34 extracts the time information 92 from the control information including the time information 92 included in the classified control information, and transmits the extracted time information 92 to the subtitle generation unit 36. As a result, the extraction unit 41 can extract the time information 92 included in the time information packet 63 from the time information packet 63. The control information including the time information 92 is MH-TOT or the like.

デコーダー35は、送信されてきた映像データ及び音声データを受信する。また、デコーダー35は、受信した映像データを画像データに復号し、復号した画像データを映像字幕重畳部37に送信する。ストリームデータ61から字幕データを取得することができない場合は、デコーダー35が画像データを映像音声出力部12に送信してもよい。また、デコーダー35は、受信した音声データをPCMデータに復号し、復号したPCMデータを映像音声出力部12に送信する。 The decoder 35 receives the transmitted video data and audio data. Further, the decoder 35 decodes the received video data into image data, and transmits the decoded image data to the video subtitle superimposing unit 37. If the subtitle data cannot be acquired from the stream data 61, the decoder 35 may transmit the image data to the video / audio output unit 12. Further, the decoder 35 decodes the received audio data into PCM data, and transmits the decoded PCM data to the video / audio output unit 12.

デコーダー35に備えられる同期出力用カウンタ42は、映像データ及び音声データを同期して再生するためのカウント値をカウントする。デコーダー35は、カウントされるカウント値、並びに映像データ及び音声データにより提示される時刻を示す提示時刻にしたがって、映像データ及び音声データを同期して再生するための同期処理を実行する。これにより、デコーダー35は、映像データ及び音声データを同期して再生することができるように画像データ及びPCMデータを送信する。また、デコーダー35は、送信されてきた時刻情報92を受信した際に、受信した時刻情報92にしたがって、同期出力用カウンタ42によりカウントされるカウント値を設定する。 The synchronous output counter 42 provided in the decoder 35 counts the count value for synchronously reproducing the video data and the audio data. The decoder 35 executes a synchronization process for synchronously reproducing the video data and the audio data according to the count value to be counted and the presentation time indicating the time presented by the video data and the audio data. As a result, the decoder 35 transmits the image data and the PCM data so that the video data and the audio data can be reproduced in synchronization. Further, when the decoder 35 receives the transmitted time information 92, the decoder 35 sets the count value counted by the synchronous output counter 42 according to the received time information 92.

字幕生成部36は、送信されてきた字幕データを受信し、受信した字幕データから字幕画像の字幕画像データを生成する。また、字幕生成部36は、内部時計43により刻まれる時刻が、字幕画像が表示される時刻を示す字幕画像表示時刻となった際に、生成した字幕画像データを映像字幕重畳部37に送信するまた、字幕生成部36は、内部時計43により刻まれる時刻が、字幕画像が消去される時刻を示す字幕画像消去時刻となった際に、字幕を非表示にすることを指示する字幕非表示指示を映像字幕重畳部37に送信する。 The subtitle generation unit 36 receives the transmitted subtitle data and generates the subtitle image data of the subtitle image from the received subtitle data. Further, the subtitle generation unit 36 transmits the generated subtitle image data to the video subtitle superimposition unit 37 when the time engraved by the internal clock 43 becomes the subtitle image display time indicating the time when the subtitle image is displayed. Further, the subtitle generation unit 36 instructs to hide the subtitle when the time ticked by the internal clock 43 becomes the subtitle image erasure time indicating the time when the subtitle image is erased. Is transmitted to the video subtitle superimposing unit 37.

字幕生成部36に備えられる内部時計43は、映像データ及び字幕データを同期して再生するための時刻を刻む。字幕生成部36は、刻まれる時刻にしたがって映像データ及び字幕データを同期して再生するための同期処理を実行する。これにより、字幕生成部36は、映像データ及び字幕データを同期して再生することができるように字幕画像データ及び字幕非表示指示を送信する。また、字幕生成部36は、送信されてきた時刻情報92を受信した際に、受信した時刻情報92にしたがって内部時計43により刻まれる時刻を設定する。 The internal clock 43 provided in the subtitle generation unit 36 ticks the time for synchronously reproducing the video data and the subtitle data. The subtitle generation unit 36 executes a synchronization process for synchronizing and reproducing the video data and the subtitle data according to the time of engraving. As a result, the subtitle generation unit 36 transmits the subtitle image data and the subtitle non-display instruction so that the video data and the subtitle data can be reproduced in synchronization. Further, when the transmitted time information 92 is received, the subtitle generation unit 36 sets the time to be ticked by the internal clock 43 according to the received time information 92.

したがって、同期出力用カウンタ42及び内部時計43を備える基準生成部52は、映像データ、音声データ及び字幕データを同期して再生するための、カウント値及び時刻を含む基準を生成する。また、デコーダー35及び字幕生成部36を備える同期再生部51は、生成された基準にしたがって、映像データ、音声データ及び字幕データを同期して再生するための同期処理を実行する。また、同期再生部51は、送信されてきた時刻情報92を受信した際に、受信した時刻情報92にしたがって基準生成部52により生成される基準を設定する。 Therefore, the reference generation unit 52 including the synchronous output counter 42 and the internal clock 43 generates a reference including the count value and the time for synchronously reproducing the video data, the audio data, and the subtitle data. Further, the synchronous reproduction unit 51 including the decoder 35 and the subtitle generation unit 36 executes a synchronization process for synchronously reproducing the video data, the audio data, and the subtitle data according to the generated reference. Further, when the synchronous reproduction unit 51 receives the transmitted time information 92, the synchronous reproduction unit 51 sets a reference generated by the reference generation unit 52 according to the received time information 92.

映像字幕重畳部37は、送信されてきた画像データ及び字幕画像データを受信し、受信した画像データ及び字幕画像データを互いに重ね合わせて重畳画像データを生成し、生成した重畳画像データを映像音声出力部12に送信する。また、映像字幕重畳部37は、新たな画像データを受信した際に、字幕画像データに重ね合わされる画像データを受信した新たな画像データに更新する。例えば、映像字幕重畳部37は、画像データA及び字幕画像データXを互いに重ね合わせて重畳画像データA+Xを生成し、生成した重畳画像データA+Xを送信した後に、新たな画像データBを受信した場合は、新たな画像データB及び字幕画像データXを互いに重ね合わせて重畳画像データB+Xを生成し、生成した重畳画像データB+Xを送信する。また、映像字幕重畳部37は、新たな字幕画像データを受信した際に、画像データに重ね合わされる字幕画像データを受信した新たな字幕画像データに更新する。例えば、映像字幕重畳部37は、画像データA及び字幕画像データXを互いに重ね合わせて重畳画像データA+Xを生成し、生成した重畳画像データA+Xを送信した後に、新たな字幕画像データYを受信した場合は、画像データA及び新たな字幕画像データYを互いに重ね合わせて重畳画像データA+Yを生成し、生成した重畳画像データA+Yを送信する。また、映像字幕重畳部37は、送信されてきた字幕非表示指示を受信した場合は、受信した画像データのみを映像音声出力部12に送信する。 The video subtitle superimposition unit 37 receives the transmitted image data and subtitle image data, superimposes the received image data and subtitle image data on each other to generate superimposition image data, and outputs the generated superimposition image data as video / audio. It is transmitted to the unit 12. Further, when the video subtitle superimposing unit 37 receives the new image data, the video subtitle superimposing unit 37 updates the image data superimposed on the subtitle image data with the received new image data. For example, when the video subtitle superimposing unit 37 superimposes the image data A and the subtitle image data X on each other to generate the superimposing image data A + X, transmits the generated superimposing image data A + X, and then receives the new image data B. Generates superimposed image data B + X by superimposing new image data B and subtitle image data X on each other, and transmits the generated superimposed image data B + X. Further, when the new subtitle image data is received, the video subtitle superimposing unit 37 updates the subtitle image data superimposed on the image data with the received new subtitle image data. For example, the video subtitle superimposing unit 37 superimposes the image data A and the subtitle image data X on each other to generate the superimposing image data A + X, transmits the generated superimposing image data A + X, and then receives the new subtitle image data Y. In this case, the image data A and the new subtitle image data Y are superposed on each other to generate the superimposed image data A + Y, and the generated superimposed image data A + Y is transmitted. When the video subtitle superimposing unit 37 receives the transmitted subtitle non-display instruction, the video subtitle superimposing unit 37 transmits only the received image data to the video / audio output unit 12.

映像音声出力部12は、送信されてきた重畳画像データ又は画像データを受信し、受信した重畳画像データ又は画像データを液晶パネル3に出力する。また、映像音声出力部12は、送信されてきたPCMデータを受信し、受信したPCMデータをスピーカー4に出力する。 The video / audio output unit 12 receives the transmitted superimposed image data or image data, and outputs the received superimposed image data or image data to the liquid crystal panel 3. Further, the video / audio output unit 12 receives the transmitted PCM data and outputs the received PCM data to the speaker 4.

1.2 再生動作
映像再生装置1は、映像を再生する際に、再生動作を実行する。再生動作は、初期動作、デコード動作及び出力動作を含む。映像再生装置1は、初期動作が完了した後に、映像の再生を終了又は停止するまでデコード動作及び出力動作を繰り返し実行する。映像再生装置1は、デコード動作及び出力動作を並列に実行する。
1.2 Playback operation The video playback device 1 executes a playback operation when playing back a video. The reproduction operation includes an initial operation, a decoding operation, and an output operation. After the initial operation is completed, the video reproduction device 1 repeatedly executes the decoding operation and the output operation until the reproduction of the video is finished or stopped. The video playback device 1 executes the decoding operation and the output operation in parallel.

1.3 初期動作
図3は、実施の形態1の映像再生装置が実行する初期動作の流れを図示するフローチャートである。
1.3 Initial operation FIG. 3 is a flowchart illustrating the flow of the initial operation executed by the video reproduction device of the first embodiment.

映像再生装置1は、再生指示を受けた際に映像の再生を開始する。映像再生装置1は、映像の再生を開始するのに連動して、図3に図示されるステップS100からS104までを実行する。 The video reproduction device 1 starts reproduction of an image when receiving a reproduction instruction. The video reproduction device 1 executes steps S100 to S104 shown in FIG. 3 in conjunction with starting reproduction of the video.

ステップS100のパケット生成情報準備処理においては、ストリーム制御部31が、記録メディア2に記録されているストリームデータ61の先頭部データ、及び記録メディア2に記録されているクリップ情報データ62を、ストレージドライバ22を介してメモリ13に読み出す。ストリーム制御部31は、ストリームデータ61の先頭部データを読み出す際には、ストリームデータ61のファイル名及びファイル先頭から再生開始位置を割り出し、割り出した再生開始位置から設定された秒数分の先頭部データを読み出す。 In the packet generation information preparation process of step S100, the stream control unit 31 stores the head data of the stream data 61 recorded on the recording medium 2 and the clip information data 62 recorded on the recording medium 2 as a storage driver. Read to the memory 13 via 22. When reading the head data of the stream data 61, the stream control unit 31 determines the playback start position from the file name of the stream data 61 and the beginning of the file, and the head portion for the number of seconds set from the calculated playback start position. Read the data.

また、ステップS100のパケット生成情報準備処理においては、ストリーム制御部31が、メモリ13に読み出したクリップ情報データ62から、再生される映像データ、音声データ及び字幕データのMMTPパケットのパケット識別子packet_idを抽出し、抽出したパケット識別子packet_idをDemuxer34に通知する。 Further, in the packet generation information preparation process in step S100, the stream control unit 31 extracts the packet identifier packet_id of the MMTP packet of the video data, audio data, and subtitle data to be reproduced from the clip information data 62 read into the memory 13. Then, the extracted packet identifier packet_id is notified to the Demuxer 34.

また、ステップS100のパケット生成情報準備処理においては、ストリーム制御部31が、メモリ13に読み出したストリームデータ61の先頭部データから、ストリームデータ61に含まれる先頭のMMTPパケット71のパケットシーケンス番号73(パケットシーケンス番号packet_sequence_number)を取得する。また、ストリーム制御部31は、メモリ13に読み出したクリップ情報データ62から、再生開始時刻82を取得する。また、ストリーム制御部31は、取得したパケットシーケンス番号73(パケットシーケンス番号packet_sequence_number)及び再生開始時刻82を時刻情報パケット生成部32に通知する。また、ストリーム制御部31は、時刻情報パケット生成指示を時刻情報パケット生成部32に送信する。 Further, in the packet generation information preparation process in step S100, the stream control unit 31 starts with the packet sequence number 73 of the first MMTP packet 71 included in the stream data 61 from the first data of the stream data 61 read into the memory 13. Packet sequence number packet_sequence_number) is acquired. Further, the stream control unit 31 acquires the reproduction start time 82 from the clip information data 62 read into the memory 13. Further, the stream control unit 31 notifies the time information packet generation unit 32 of the acquired packet sequence number 73 (packet sequence number packet_sequence_number) and the reproduction start time 82. Further, the stream control unit 31 transmits a time information packet generation instruction to the time information packet generation unit 32.

パケット識別子packet_idは、それを含むパケットのペイロードに格納されているデータの種別を識別する情報である。パケットシーケンス番号packet_sequence_numberは、それを含むMMTPパケットの順序を示す。 The packet identifier packet_id is information that identifies the type of data stored in the payload of the packet containing it. The packet sequence number packet_sequence_number indicates the order of the MMTP packets containing the packet_sequence_number.

続くステップS101の時刻情報パケット生成処理においては、時刻情報パケット生成部32が、通知された再生開始時刻82から設定された時間だけ前の時刻を示す時刻情報92(時刻情報JST_time)を含むMH−TOTデータを生成し、生成したMH−TOTデータを格納したM2短セクションメッセージデータを生成する。また、時刻情報パケット生成部32は、生成したM2短セクションメッセージデータをペイロードとして含み通知されたパケットシーケンス番号73(パケットシーケンス番号packet_sequence_number)から1を減じたパケットシーケンス番号91(パケットシーケンス番号packet_sequence_number)を有するMMTPパケットである時刻情報パケット63を生成する。また、時刻情報パケット生成部32は、生成した時刻情報パケット63をペイロードとして含むTLVパケットを生成し、生成したTLVパケットをメモリ13に書き出し、メモリ13に書き出したTLVパケットの先頭位置及びTLVパケットサイズ、並びに時刻情報パケット63の生成が完了したことを示す時刻情報パケット生成完了通知をストリーム制御部31に通知する。 In the time information packet generation process of the following step S101, the time information packet generation unit 32 includes MH- including time information 92 (time information JST_time) indicating a time set time before the notified playback start time 82. The TOT data is generated, and the M2 short section message data storing the generated MH-TOT data is generated. Further, the time information packet generation unit 32 includes the generated M2 short section message data as a payload, and subtracts 1 from the notified packet sequence number 73 (packet sequence number packet_sequence_number) to generate the packet sequence number 91 (packet sequence number packet_sequence_number). The time information packet 63, which is an MMTP packet to have, is generated. Further, the time information packet generation unit 32 generates a TLV packet including the generated time information packet 63 as a payload, writes the generated TLV packet to the memory 13, the start position of the TLV packet written to the memory 13, and the TLV packet size. , And a time information packet generation completion notification indicating that the generation of the time information packet 63 is completed is notified to the stream control unit 31.

続くステップS102の時刻情報パケット送信処理においては、ストリーム制御部31が、通知されたTLVパケットの先頭位置から通知されたTLVパケットのパケットサイズ分のデータをパケットパーサー33に送信する。 In the time information packet transmission process of the following step S102, the stream control unit 31 transmits data corresponding to the packet size of the TLV packet notified from the head position of the notified TLV packet to the packet parser 33.

また、ステップS102の時刻情報パケット送信処理においては、パケットパーサー33が、送信されてきたデータを受信し、受信したデータを内部バッファに蓄積し、データの受信が完了したこと示すデータ受信完了通知をストリーム制御部31に通知する。 Further, in the time information packet transmission process in step S102, the packet parser 33 receives the transmitted data, stores the received data in the internal buffer, and notifies the data reception completion indicating that the data reception is completed. Notify the stream control unit 31.

続くステップS103の時刻情報パケット解析処理においては、パケットパーサー33が、内部バッファに蓄積したデータからTLVパケットを読み出し、読み出したTLVパケットからTLVヘッダ、IPヘッダ及びUDPヘッダを取り除いて、残ったMMTPパケットである時刻情報パケット63をDemuxer34に送信する。送信されるMMTPパケットは、M2短セクションメッセージデータを含む。 In the time information packet analysis process of the following step S103, the packet parser 33 reads the TLV packet from the data stored in the internal buffer, removes the TLV header, the IP header, and the UDP header from the read TLV packet, and the remaining MMTP packet. The time information packet 63 is transmitted to the Header 34. The MMTP packet transmitted contains M2 short section message data.

続くステップS104の時刻同期処理においては、Demuxer34が、送信されてきた時刻情報パケット63を受信し、受信した時刻情報パケット63に含まれるM2短セクションメッセージデータに含まれるMT−TOTから時刻情報92(時刻情報JST_time)を取り出し、取り出した時刻情報92(時刻情報JST_time)をデコーダー35及び字幕生成部36に通知する。 In the time synchronization process of the following step S104, the Demuxer 34 receives the transmitted time information packet 63, and the time information 92 (from MT-TOT included in the M2 short section message data included in the received time information packet 63). The time information JST_time) is taken out, and the taken out time information 92 (time information JST_time) is notified to the decoder 35 and the subtitle generation unit 36.

また、ステップS104の時刻同期処理においては、デコーダー35が、通知された時刻情報92(時刻情報JST_time)したがって、同期出力用カウンタ42によりカウントされるカウント値を設定し、同期出力用カウンタ42の動作を開始させる。 Further, in the time synchronization process in step S104, the decoder 35 sets the count value counted by the synchronized output counter 42 because of the notified time information 92 (time information JST_time), and operates the synchronous output counter 42. To start.

また、ステップS104の時刻同期処理においては、字幕生成部36が、通知された時刻情報92(時刻情報JST_time)したがって、内部時計43により刻まれる時刻を設定し、内部時計43の動作を開始させる。これにより、パケットシーケンス番号73及び再生開始時刻82(時刻情報JST_time)にしたがって、映像データ、音声データ及び字幕データを同期して再生するための同期処理が完了する。 Further, in the time synchronization process in step S104, the subtitle generation unit 36 sets the time to be ticked by the internal clock 43 according to the notified time information 92 (time information JST_time), and starts the operation of the internal clock 43. As a result, the synchronization process for synchronously reproducing the video data, the audio data, and the subtitle data according to the packet sequence number 73 and the reproduction start time 82 (time information JST_time) is completed.

1.4 デコード動作
図4は、実施の形態1の映像再生装置が実行するデコード動作の流れを図示するフローチャートである。
1.4 Decoding operation FIG. 4 is a flowchart illustrating the flow of the decoding operation executed by the video playback apparatus of the first embodiment.

映像再生装置1は、初期動作を完了した後に、図4に図示されるステップS200からS212までを実行する。 After completing the initial operation, the video reproduction device 1 executes steps S200 to S212 shown in FIG.

ステップS200のストリームデータ読み出し処理においては、ストリーム制御部31が、記録メディア2からストリームデータ61を構成するデータをメモリ13に読み出し、メモリ13に読み出したデータをパケットパーサー33に送信する。 In the stream data read processing in step S200, the stream control unit 31 reads the data constituting the stream data 61 from the recording medium 2 into the memory 13 and transmits the data read into the memory 13 to the packet parser 33.

また、ステップS200のストリームデータ読み出し処理においては、パケットパーサー33が、送信されてきたデータを受信し、受信したデータを内部バッファに蓄積し、データの受信が完了したことを示すデータ受信完了通知をストリーム制御部31に通知する。 Further, in the stream data read processing in step S200, the packet parser 33 receives the transmitted data, stores the received data in the internal buffer, and notifies the data reception completion indicating that the data reception is completed. Notify the stream control unit 31.

続くステップS201においては、パケットパーサー33が、蓄積量が十分であるか否かを判定する。パケットパーサー33は、その際に、内部バッファに蓄積したデータからTLVヘッダを読み出し、読み出したTLVヘッダから当該TLVヘッダを含むTLVパケットのパケットサイズを取得する。また、パケットパーサー33は、取得したパケットサイズを有するデータを内部バッファに蓄積している場合は、蓄積量が十分であると判定し、そうでない場合は、蓄積量が十分でないと判定する。蓄積量が十分であると判定された場合は、ステップS202が実行される。蓄積量が十分でないと判定された場合は、再びステップS200が実行される。このため、パケットパーサー33は、蓄積量が十分でないと判定した場合は、次のデータを受信するまでステップS202で実行されるTLVパース処理を停止する。 In the following step S201, the packet parser 33 determines whether or not the accumulated amount is sufficient. At that time, the packet parser 33 reads the TLV header from the data stored in the internal buffer, and acquires the packet size of the TLV packet including the TLV header from the read TLV header. Further, the packet parser 33 determines that the accumulated amount is sufficient when the data having the acquired packet size is accumulated in the internal buffer, and determines that the accumulated amount is not sufficient otherwise. If it is determined that the accumulated amount is sufficient, step S202 is executed. If it is determined that the accumulated amount is not sufficient, step S200 is executed again. Therefore, when the packet parser 33 determines that the accumulated amount is not sufficient, the packet parser 33 stops the TLV parsing process executed in step S202 until the next data is received.

ステップS202のTLVパース処理においては、パケットパーサー33が、TLVパケットからTLVヘッダ、IPヘッダ及びUDPヘッダを取り除いて、残ったデータをDemuxer34に送信する。 In the TLV parsing process in step S202, the packet parser 33 removes the TLV header, the IP header, and the UDP header from the TLV packet, and transmits the remaining data to the Demuxer 34.

続くステップS203のデータ分類においては、Demuxer34が、送信されてきたデータを受信し、受信したデータに含まれるMMTPパケットのペイロードのデータタイプpayload_typeにしたがって、MMTPパケットを制御メッセージデータ及びコンポーネントデータに分類する。コンポーネントデータは、映像データ、音声データ又は字幕データを含む。制御メッセージデータは、制御情報を含む。MMTPパケットが制御メッセージデータに分類された場合は、ステップS204が実行される。MMTPパケットがコンポーネントデータに分類された場合は、ステップS207が実行される。 In the data classification of the following step S203, the Demuxer 34 receives the transmitted data and classifies the MMTP packet into control message data and component data according to the data type payload_type of the payload of the MMTP packet included in the received data. .. The component data includes video data, audio data or subtitle data. The control message data includes control information. If the MMTP packet is classified as control message data, step S204 is executed. If the MMTP packet is classified as component data, step S207 is executed.

ステップS204のテーブル確認においては、Demuxer34が、制御メッセージデータに含まれるテーブルを確認する。テーブルを確認した結果、受信したMMTPパケットがMPTを含む場合は、ステップS205が実行される。一方、受信したMMTPパケットがMH−TOTを含む場合は、ステップS206が実行される。 In the table confirmation in step S204, the Demuxer 34 confirms the table included in the control message data. As a result of checking the table, if the received MMTP packet contains MPT, step S205 is executed. On the other hand, if the received MMTP packet contains MH-TOT, step S206 is executed.

ステップS205のメディアプレゼンテーションユニット(MPU:Media Presentation Unit)_プレゼンテーションタイム(MPU_PT:MPU Presentation Time)リスト保存処理においては、Demuxer34が、再生される映像データのMPU_PTとそれに対応するMPUシーケンス番号mpu_sequence_numberとの組み合わせをリスト化した映像MPU_PTリストをメモリ13に保存する。また、Demuxer34は、再生される音声データのMPU_PTとそれに対応するMPUシーケンス番号mpu_sequence_numberとの組み合わせをリスト化した音声MPU_PTリストをメモリ13に保存する。 In the media presentation unit (MPU: Media Presentation Unit) _presentation time (MPU_PT: MPU Presentation Time) list saving process in step S205, the Demuxer 34 combines the MPU_PT of the video data to be reproduced and the corresponding MPU sequence number mpu_sequence_number. The video MPU_PT list that lists the above is saved in the memory 13. Further, the Demuxer 34 stores in the memory 13 an audio MPU_PT list that lists the combinations of the MPU_PT of the audio data to be reproduced and the corresponding MPU sequence number mpu_sequence_number.

ステップS206のMH−TOT送信処理においては、Demuxer34が、MH−TOTから時刻情報を取り出し、取り出した時刻情報を字幕生成部36に通知する。 In the MH-TOT transmission process in step S206, the Demuxer 34 extracts the time information from the MH-TOT and notifies the subtitle generation unit 36 of the extracted time information.

ステップS207のコンポーネント分類においては、Demuxer34が、MMTPパケットに含まれるデータを字幕データ、映像データ及び音声データに分類する。当該データが字幕データに分類された場合は、ステップS208が実行される。当該データが映像データに分類された場合は、ステップS209が実行される。当該データが音声データに分類された場合は、ステップS210が実行される。 In the component classification in step S207, the Demuxer 34 classifies the data included in the MMTP packet into subtitle data, video data, and audio data. If the data is classified as subtitle data, step S208 is executed. If the data is classified as video data, step S209 is executed. If the data is classified as voice data, step S210 is executed.

ステップS208の字幕データ送信処理においては、Demuxer34が、字幕データに含まれるメディアフラグメントユニット(MFU:Media Fragment Unit)データを字幕生成部36に送信する。 In the subtitle data transmission process of step S208, the Demuxer 34 transmits the media fragment unit (MFU: Media Fragment Unit) data included in the subtitle data to the subtitle generation unit 36.

続くステップS212の字幕生成処理においては、字幕生成部36が、送信されてきたMFUデータを受信し、受信したMFUデータから字幕データにより提示される時刻を示す提示時刻を取得し、取得した提示時刻及び字幕画像データの組をメモリ13に保存する。 In the subtitle generation process of the following step S212, the subtitle generation unit 36 receives the transmitted MFU data, acquires a presentation time indicating the time presented by the subtitle data from the received MFU data, and acquires the presentation time. And the set of the subtitle image data is saved in the memory 13.

ステップS209の映像データ送信処理においては、Demuxer34が、メモリ13に保存された映像MPU_PTリストから、映像データのMPUシーケンス番号mpu_sequence_numberに一致するMPUシーケンス番号mpu_sequence_numberを探し、探したMPUシーケンス番号mpu_sequence_numberが対応するMPU_PTと映像データとの組をデコーダー35に送信し、当該MPU_PT及び当該MPUシーケンス番号mpu_sequence_numberを映像MPU_PTリストから削除する。 In the video data transmission process of step S209, the Demuxer 34 searches the video MPU_PT list stored in the memory 13 for the MPU sequence number mpu_sequence_number that matches the MPU sequence number mpu_sequence_number of the video data, and the searched MPU sequence number mpu_sequence_number corresponds to the MPU sequence number mpu_sequence_number. The set of MPU_PT and video data is transmitted to the decoder 35, and the MPU_PT and the MPU sequence number mpu_sequence_number are deleted from the video MPU_PT list.

ステップS210の音声データ送信処理においては、Demuxer34が、メモリ13に保存された音声MPU_PTリストから、音声データのMPUシーケンス番号mpu_sequence_numberに一致するMPUシーケンス番号mpu_sequence_numberを探し、探したMPUシーケンス番号mpu_sequence_numberが対応するMPU_PTと音声データとの組をデコーダー35に送信し、当該MPU_PT及び当該MPUシーケンス番号mpu_sequence_numberを音声MPU_PTリストから削除する。 In the voice data transmission process of step S210, the Demuxer 34 searches the voice MPU_PT list stored in the memory 13 for the MPU sequence number mpu_sequence_number that matches the MPU sequence number mpu_sequence_number of the voice data, and the searched MPU sequence number mpu_sequence_number corresponds to it. The pair of MPU_PT and voice data is transmitted to the decoder 35, and the MPU_PT and the MPU sequence number mpu_sequence_number are deleted from the voice MPU_PT list.

ステップS209及びS210に続くステップS211のデコード処理においては、デコーダー35が、送信されてきた映像データを受信し、受信した映像データをデコード可能である場合は、映像データを画像データに復号し、復号した画像データをメモリ13に保存する。 In the decoding process of step S211 following steps S209 and S210, the decoder 35 receives the transmitted video data, and if the received video data can be decoded, decodes the video data into image data and decodes the video data. The image data is stored in the memory 13.

また、ステップS211のデコード処理においては、デコーダー35が、送信されてきた音声データを受信し、受信した音声データをデコード可能である場合は、音声データをPCMデータに復号し、復号したPCMデータをメモリ13に保存する。 Further, in the decoding process of step S211, if the decoder 35 receives the transmitted audio data and can decode the received audio data, the audio data is decoded into PCM data, and the decoded PCM data is used. Save in memory 13.

1.5 出力動作
図5は、実施の形態1の映像再生装置が実行する出力動作の流れを図示するフローチャートである。図5(a)、図5(b)、図5(c)及び図5(d)は、それぞれデコーダー、字幕生成部、映像字幕重畳部及び映像音声出力部が実行する出力動作の流れを図示するフローチャートである。
1.5 Output operation FIG. 5 is a flowchart illustrating a flow of an output operation executed by the video reproduction device of the first embodiment. 5 (a), 5 (b), 5 (c) and 5 (d) illustrate the flow of output operations executed by the decoder, subtitle generation unit, video subtitle superimposition unit and video / audio output unit, respectively. It is a flowchart to be done.

デコーダー35は、出力動作を実行する際に、図5(a)に図示されるステップS300及びS301を実行する。 The decoder 35 executes steps S300 and S301 illustrated in FIG. 5A when executing the output operation.

ステップS301の出力動作においては、デコーダー35が、同期出力用カウンタ42によりカウントされたカウント値に一致するMPU_PTを有する画像データがメモリ13に保存されている場合は、当該画像データを映像字幕重畳部37に送信する。 In the output operation of step S301, when the decoder 35 stores the image data having the MPU_PT corresponding to the count value counted by the synchronous output counter 42 in the memory 13, the image data is stored in the video subtitle superimposing unit. Send to 37.

続くステップS302の音声出力処理においては、デコーダー35が、同期出力用カウンタ42によりカウントされたカウント値に一致するMPU_PTを有するPCMデータがメモリ13に保存されている場合は、当該PCMデータを映像音声出力部12に送信する。 In the audio output processing of the following step S302, when the decoder 35 stores the PCM data having the MPU_PT corresponding to the count value counted by the synchronous output counter 42 in the memory 13, the PCM data is stored in the memory 13. It is transmitted to the output unit 12.

これらにより、同期出力用カウンタ42によりカウントされたカウント値にしたがって映像データ及び音声データが再生される。その結果として、映像データ及び音声データが同期して再生される。 As a result, the video data and the audio data are reproduced according to the count value counted by the synchronous output counter 42. As a result, the video data and the audio data are reproduced in synchronization.

字幕生成部36は、出力動作を実行する際に、図5(b)に図示されるステップS302及びS303を実行する。 The subtitle generation unit 36 executes steps S302 and S303 shown in FIG. 5B when executing the output operation.

ステップS302の字幕出力処理においては、字幕生成部36が、内部時計43により刻まれる時刻が、メモリ13に保存されている字幕画像データにより提示される時刻を示す提示時刻となったときに、当該字幕画像データを映像字幕重畳部37に送信する。 In the subtitle output process of step S302, when the time ticked by the internal clock 43 becomes the presentation time indicating the time presented by the subtitle image data stored in the memory 13, the subtitle generation unit 36 corresponds to the present time. The subtitle image data is transmitted to the video subtitle superimposing unit 37.

続くステップS303の字幕非表示処理においては、字幕生成部36が、内部時計43により刻まれる時刻が、提示期間を過ぎたときに、字幕を非表示にすることを指示する字幕非表示指示を映像字幕重畳部37に送信する。 In the subtitle hiding process of the following step S303, the subtitle generation unit 36 outputs a subtitle hiding instruction instructing to hide the subtitle when the time ticked by the internal clock 43 has passed the presentation period. It is transmitted to the subtitle superimposing unit 37.

映像字幕重畳部37は、出力動作を実行する際に、図5(c)に図示されるステップS304を実行する。 The video subtitle superimposing unit 37 executes step S304 shown in FIG. 5C when executing the output operation.

ステップS304の画像重畳処理においては、映像字幕重畳部37が、送信されてきた画像データ及び字幕画像データを受信し、画像の上に字幕画像が重ねられるように、受信した画像データ及び字幕画像データを互いに重ね合わせて重畳画像データを生成し、生成した重畳画像データを映像音声出力部12に出力する。 In the image superimposition process of step S304, the video subtitle superimposition unit 37 receives the transmitted image data and subtitle image data, and the received image data and subtitle image data are superimposed so that the subtitle image is superimposed on the image. Are superimposed on each other to generate superimposed image data, and the generated superimposed image data is output to the video / audio output unit 12.

これらにより、内部時計43により刻まれる時刻にしたがって字幕データが再生される。その結果として、映像データ及び字幕データが同期して再生される。 As a result, the subtitle data is reproduced according to the time ticked by the internal clock 43. As a result, the video data and the subtitle data are reproduced in synchronization.

映像音声出力部12は、出力動作を実行する際に、図5(d)に図示されるステップS305及びS306を実行する。 The video / audio output unit 12 executes steps S305 and S306 shown in FIG. 5D when executing the output operation.

ステップS305の映像出力処理においては、映像音声出力部12が、送信されてきた重畳画像データを受信し、受信した重畳画像データに応じた信号波形を有する信号を生成し、生成した信号を液晶パネル3に出力する。 In the video output process of step S305, the video / audio output unit 12 receives the transmitted superimposed image data, generates a signal having a signal waveform corresponding to the received superimposed image data, and generates the generated signal on the liquid crystal panel. Output to 3.

続くステップS306の音声出力処理においては、映像音声出力部12が、送信されてきたPCMデータを受信し、受信したPCMデータに応じた信号波形を有する信号を生成し、生成した信号をスピーカー4に出力する。 In the audio output processing of the following step S306, the video / audio output unit 12 receives the transmitted PCM data, generates a signal having a signal waveform corresponding to the received PCM data, and transmits the generated signal to the speaker 4. Output.

1.6 実施の形態1の発明の効果
実施の形態1の発明によれば、記録メディア2に記録されたストリームデータ61から取得される映像データ、音声データ及び字幕データを同期して再生するために必要な時刻情報パケット63が、記録メディア2に記録されたストリームデータ61及びクリップ情報データ62から生成される。生成される時刻情報パケット63は、ストリームデータ61に含まれる時刻情報パケットと同様に利用することができる。このため、時刻情報パケットがストリームデータ61に含まれない場合においても、映像データ、音声データ及び字幕データを同期して再生することができる。例えば、時刻情報パケットがストリームデータ61に全く含まれない場合でも、映像データ、音声データ及び字幕データを同期して再生することができる。また、時刻情報パケットがストリームデータ61に含まれる場合に任意の位置からストリームデータ61の再生を開始するときに、映像データ、音声データ及び字幕データの、再生が開始される位置と時刻情報パケットが含まれる位置との間にある部分を同期して再生することができる。例えば、時刻情報パケットが含まれる位置の前にある部分を同期して再生することができる。
1.6 Effect of the invention of the first embodiment According to the invention of the first embodiment, the video data, the audio data, and the subtitle data acquired from the stream data 61 recorded on the recording medium 2 are reproduced in synchronization with each other. The time information packet 63 required for is generated from the stream data 61 and the clip information data 62 recorded on the recording medium 2. The generated time information packet 63 can be used in the same manner as the time information packet included in the stream data 61. Therefore, even when the time information packet is not included in the stream data 61, the video data, the audio data, and the subtitle data can be reproduced in synchronization. For example, even when the time information packet is not included in the stream data 61 at all, the video data, the audio data, and the subtitle data can be reproduced in synchronization. Further, when the playback of the stream data 61 is started from an arbitrary position when the time information packet is included in the stream data 61, the position where the playback is started and the time information packet of the video data, the audio data, and the subtitle data are displayed. The part between the included position can be played back in synchronization. For example, the part in front of the position including the time information packet can be reproduced in synchronization.

1.7 変形例
実施の形態1においては、生成される時刻情報パケット63が、MH−TOTを含むMMTPパケットである。しかし、生成される時刻情報パケット63が、ネットワークタイムプロトコル(NTP:Network Time Protocol)パケットであってもよい。
1.7 Modification Example In the first embodiment, the generated time information packet 63 is an MMTP packet containing the MH-TOT. However, the generated time information packet 63 may be a Network Time Protocol (NTP) packet.

実施の形態1においては、ストリーム制御部31が時刻情報パケット生成部32に通知する再生開始時刻82が、クリップ情報データ62から取得される。しかし、当該再生開始時刻82が、ストリームデータ61に含まれるMPTから取得される再生開始画像のMPU_TUから取得されてもよい。 In the first embodiment, the playback start time 82 notified by the stream control unit 31 to the time information packet generation unit 32 is acquired from the clip information data 62. However, the reproduction start time 82 may be acquired from the MPU_TU of the reproduction start image acquired from the MPT included in the stream data 61.

なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。 In the present invention, the embodiments can be appropriately modified or omitted within the scope of the invention.

この発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is exemplary in all aspects and the invention is not limited thereto. It is understood that innumerable variations not illustrated can be assumed without departing from the scope of the present invention.

1 映像再生装置、2 記録メディア、31 ストリーム制御部、32 時刻情報パケット生成部、33 パケットパーサー、34 デマルチプレクサ(Demuxer)、35 デコーダー、36 字幕生成部、37 映像字幕重畳部、41 取り出し部、42 同期出力用カウンタ、43 内部時計、51 同期再生部、52 基準生成部、61 ストリームデータ、62 クリップ情報データ、63 時刻情報パケット、71 先頭のMMTPパケット、72 第1の情報、73 パケットシーケンス番号、81 第2の情報、82 再生開始時刻、91 パケットシーケンス番号、92 時刻情報。 1 Video playback device, 2 Recording media, 31 Stream control unit, 32 Time information packet generation unit, 33 Packet parser, 34 Demultiplexer, 35 Decoder, 36 Subtitle generation unit, 37 Video subtitle superimposition unit, 41 Extraction unit, 42 Synchronous output counter, 43 Internal clock, 51 Synchronous playback unit, 52 Reference generator, 61 Stream data, 62 Clip information data, 63 Time information packet, 71 First MMTP packet, 72 First information, 73 Packet sequence number , 81 Second information, 82 Playback start time, 91 Packet sequence number, 92 Time information.

Claims (9)

記録メディアに記録されたストリームデータから第1の情報を取得し、前記ストリームデータ、又は前記記録メディアに記録された、前記ストリームデータ以外のデータから第2の情報を取得するストリーム制御部と、
前記第2の情報から時刻情報を取得し、前記第1の情報を用いて前記時刻情報を含む時刻情報パケットを生成する時刻情報パケット生成部と、
前記時刻情報パケットから前記時刻情報を取り出す取り出し部と、
前記ストリームデータから取得される複数のコンポーネントデータを同期して再生するための基準を生成する基準生成部を備え、前記基準にしたがって前記複数のコンポーネントデータを同期して再生するための同期処理を行い、前記時刻情報にしたがって前記基準を設定する同期再生部と、
を備える映像再生装置。
A stream control unit that acquires the first information from the stream data recorded on the recording medium and acquires the second information from the stream data or data other than the stream data recorded on the recording medium.
A time information packet generation unit that acquires time information from the second information and uses the first information to generate a time information packet including the time information.
A take-out unit that extracts the time information from the time information packet,
It is provided with a reference generation unit that generates a reference for synchronously reproducing a plurality of component data acquired from the stream data, and performs a synchronization process for synchronously reproducing the plurality of component data according to the reference. , A synchronous playback unit that sets the reference according to the time information,
Video playback device equipped with.
前記複数のコンポーネントデータは、映像データ及び音声データを含み、
前記基準は、前記映像データ及び前記音声データを同期して再生するためのカウント値を含み、
前記基準生成部は、前記カウント値をカウントする同期出力用カウンタを備え、
前記同期再生部は、前記カウント値にしたがって前記映像データ及び前記音声データを同期して再生するための同期処理を行い、前記時刻情報により前記カウント値を設定するデコーダーを備える
請求項1の映像再生装置。
The plurality of component data includes video data and audio data.
The reference includes a count value for synchronously reproducing the video data and the audio data.
The reference generation unit includes a synchronous output counter that counts the count value.
The video reproduction unit according to claim 1 includes a decoder that performs synchronous processing for synchronously reproducing the video data and the audio data according to the count value, and sets the count value based on the time information. apparatus.
前記複数のコンポーネントデータは、映像データ及び字幕データを含み、
前記基準は、前記映像データ及び前記字幕データを同期して再生するための時刻を含み、
前記基準生成部は、前記時刻を刻む内部時計を備え、
前記同期再生部は、前記時刻にしたがって前記映像データ及び前記字幕データを同期して再生するための同期処理を行い、前記時刻情報にしたがって前記時刻を設定する字幕生成部を備える
請求項1又は2の映像再生装置。
The plurality of component data includes video data and subtitle data.
The reference includes a time for synchronously playing back the video data and the subtitle data.
The reference generator includes an internal clock that keeps track of the time.
Claim 1 or 2 includes a subtitle generation unit that performs synchronous processing for synchronously reproducing the video data and the subtitle data according to the time, and sets the time according to the time information. Video playback device.
前記第1の情報は、前記ストリームデータに含まれる先頭のMMTPパケットの順序を含み、
前記時刻情報パケット生成部は、前記ストリームデータに含まれる先頭のMMTPパケットの順序から前記時刻情報パケットの順序を取得する
請求項1から3までのいずれかの映像再生装置。
The first information includes the order of the first MMTP packet included in the stream data.
The video reproduction device according to any one of claims 1 to 3, wherein the time information packet generation unit acquires the order of the time information packets from the order of the first MMTP packets included in the stream data.
前記時刻情報パケットの順序は、前記ストリームデータに含まれる先頭のMMTPパケットの順序より前である
請求項4の映像再生装置。
The video reproduction device according to claim 4, wherein the order of the time information packets is earlier than the order of the first MMTP packet included in the stream data.
前記第2の情報は、前記ストリームデータの再生が開始される時刻を含む
請求項1から5までのいずれかの映像再生装置。
The second information is any video playback device according to any one of claims 1 to 5, which includes a time when playback of the stream data is started.
前記時刻情報は、前記ストリームデータの再生が開始される時刻より前の時刻を示す
請求項6の映像再生装置。
The video playback device according to claim 6, wherein the time information indicates a time before the time when the playback of the stream data is started.
前記ストリーム制御部は、前記ストリームデータから前記第2の情報を取得する
請求項1から7までのいずれかの映像再生装置。
The stream control unit is any video reproduction device according to any one of claims 1 to 7, which acquires the second information from the stream data.
前記ストリームデータ以外のデータは、クリップ情報データであり、
前記ストリーム制御部は、前記クリップ情報データから前記第2の情報を取得する
請求項1から7までのいずれかの映像再生装置。
The data other than the stream data is clip information data, and is
The stream control unit is any video reproduction device according to any one of claims 1 to 7, which acquires the second information from the clip information data.
JP2019154231A 2019-08-27 2019-08-27 Video reproducing device Pending JP2021034085A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019154231A JP2021034085A (en) 2019-08-27 2019-08-27 Video reproducing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019154231A JP2021034085A (en) 2019-08-27 2019-08-27 Video reproducing device

Publications (1)

Publication Number Publication Date
JP2021034085A true JP2021034085A (en) 2021-03-01

Family

ID=74677505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019154231A Pending JP2021034085A (en) 2019-08-27 2019-08-27 Video reproducing device

Country Status (1)

Country Link
JP (1) JP2021034085A (en)

Similar Documents

Publication Publication Date Title
TWI344300B (en) Computer-readable recording medium and method and apparatus to synchronize av data with text subtitle data
JP2006260762A (en) Method for generating additional information for guaranteeing seamless playback between data streams, recording medium storing information, and recording, editing and/or playback apparatus
JP2008160748A (en) Recording system, and recording and reproducing system
JP2007074608A (en) Reproducing apparatus and reproducing method
JP2002152688A (en) Digital broadcast recording/reproducing device
JP2009105684A (en) Moving image decoder
JP2008236694A (en) Data stream reproducing apparatus and data stream decoding apparatus
JP2005124178A (en) Information storage medium with multi-angle data recorded and method and apparatus for reproducing the multi-angle data
JP2021034085A (en) Video reproducing device
JP4225339B2 (en) Image data processing apparatus and method, program, and recording medium
JP2004040579A (en) Digital broadcast reception device and synchronous reproduction method for digital broadcast
JP2006049988A (en) Digital data recording and reproducing device
JP3917346B2 (en) Image decoding apparatus and image decoding method
JP4690965B2 (en) Data recording / reproducing device
JP2006352587A (en) Information processor
JP2007243501A (en) Video image reproducer
JPWO2006075457A1 (en) Recording device
JPH10164512A (en) Data-processing synchronization device
US20070122120A1 (en) Multi-av stream playback method and playback apparatus
WO2003065715A1 (en) Audio/video data recording/reproduction apparatus, system, and method, recording medium recorded by them, audio/video data reproduction apparatus, and data structure
JP5161323B2 (en) Reproduction method and apparatus
KR100677110B1 (en) Apparatus for recording and/or editing of data ensuring seamless playback between data stream
KR100657262B1 (en) Recording medium for storing additional information so as to ensure seamless playback between data stream
KR100532113B1 (en) Appratus for recording and/or playback of data ensuring seamless playback between data stream
JP2008005198A (en) Device and method for reproducing multiple av streams