JP6742515B2 - CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD - Google Patents
CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD Download PDFInfo
- Publication number
- JP6742515B2 JP6742515B2 JP2019518657A JP2019518657A JP6742515B2 JP 6742515 B2 JP6742515 B2 JP 6742515B2 JP 2019518657 A JP2019518657 A JP 2019518657A JP 2019518657 A JP2019518657 A JP 2019518657A JP 6742515 B2 JP6742515 B2 JP 6742515B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- information
- audio
- access unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/92—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N5/926—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/93—Regeneration of the television signal or of selected parts thereof
Description
本発明は、SDカード、光ディスク等の情報記録媒体に記録された符号化映像の再生装置に関する。 The present invention relates to a reproducing apparatus for coded video recorded on an information recording medium such as an SD card and an optical disc.
近年、広告媒体として、画像表示装置の画面に動画映像を表示する電子広告(デジタルサイネージ)が普及している。デジタルサイネージに使用される画像表示装置としては、高性能なプロセッサを搭載したPC(パーソナルコンピュータ)を使用することが多いが、コスト、信頼性、および耐環境性などの観点からは、電子広告表示機能が組み込まれた専用の画像表示装置(組み込み機器)の適用が望ましい。しかし、一般的に組み込み機器では、プロセッサ性能、メモリサイズなどが制限されていることに加え、符号化映像を復号化するAVデコーダはハードウェアでの実装となるため、操作制約が厳しく復号処理の自由度が少ないといった問題がある。 2. Description of the Related Art In recent years, electronic advertisements (digital signage) that display moving image on a screen of an image display device have become popular as advertisement media. A PC (personal computer) equipped with a high-performance processor is often used as an image display device used for digital signage, but from the viewpoint of cost, reliability, environment resistance, etc., electronic advertisement display It is desirable to apply a dedicated image display device (embedded device) with built-in functions. However, in general, embedded devices are limited in processor performance, memory size, and the like, and since an AV decoder that decodes encoded video is mounted in hardware, operation restrictions are severe and decoding processing is difficult. There is a problem that the degree of freedom is low.
デジタルサイネージの一形態として、可搬性記録媒体に保存された符号化映像をループ再生で表示する形態が広く用いられている。しかしながら複数の映像ストリームを順次再生する場合、映像ストリーム自体に記録されている映像フレーム単位での表示時間に従って表示制御を行う必要があるため、映像ストリーム毎にAVデコーダの初期化処理が必要となっていた。AVデコーダの初期化処理とは、AVデコーダに供給する映像の解像度およびフレームレート設定などの事前設定、AVデコーダのバッファの初期化処理などを含んでいる。 As one form of digital signage, a form in which coded images stored in a portable recording medium are displayed by loop reproduction is widely used. However, when sequentially reproducing a plurality of video streams, it is necessary to perform display control in accordance with the display time in video frame units recorded in the video stream itself, and thus initialization processing of the AV decoder is required for each video stream. Was there. The initialization processing of the AV decoder includes presetting of the resolution and frame rate of the video supplied to the AV decoder, initialization processing of the buffer of the AV decoder, and the like.
また、映像ストリームの多重化フォーマットが変更される際にも初期化処理が必要となることが多い。このような初期化処理に必要となる時間が、映像ストリームの切換えに際して、黒画像表示期間となるような映像間のギャップを生じさせる原因となっていた。デジタルサイネージでは、ギャップに起因する映像を表示しない待ち時間の発生は映像表示時間の機会損失につながるため、非常に問題視されている。また、シーン切換え時に、映像輝度および音声出力レベルが大きく異なると、ユーザーにとって違和感を生じさせ、不快となるといった問題があった。 Further, initialization processing is often required even when the multiplexing format of the video stream is changed. The time required for such an initialization process causes a gap between images which is a black image display period when the video stream is switched. In digital signage, the occurrence of a waiting time for not displaying an image due to a gap leads to a loss of an opportunity for displaying an image, which is regarded as a very problem. Further, if the video brightness and the audio output level are greatly different at the time of scene switching, there is a problem that the user feels uncomfortable and is uncomfortable.
このような問題を解決する1つの手段として、例えば、特許文献1に開示されるように、映像および音声の繋ぎ目をオーバーラップさせる映像音声情報を別途作成し、自然な映像シーンの切換えが視聴できる映像編集装置が知られている。 As one means for solving such a problem, for example, as disclosed in Patent Document 1, video/audio information that overlaps a joint between video and audio is separately created, and natural video scene switching is viewed. There is known a video editing device that can do this.
先行文献1に開示される従来技術では、映像シーンの繋ぎ目付近の映像音声を一時的に記録しておき、オーバーラップさせる映像音声をオフラインで別途作成している。この方式は汎用コンピュータのような高速処理が可能な性能のプロセッサを持つ場合に有用な方法であり、組み込み機器で映像シーンの合成処理を行うとCPU(Control Processing Unit)の負荷が高くなり、多くの処理時間を必要とするため実用的ではない。 In the conventional technique disclosed in the prior art document 1, the video and audio in the vicinity of the joint between the video scenes are temporarily recorded, and the video and audio to be overlapped are separately created offline. This method is useful when there is a processor capable of high-speed processing, such as a general-purpose computer, and when the processing of synthesizing video scenes is performed by an embedded device, the load on the CPU (Control Processing Unit) increases and Is not practical because it requires processing time.
また、一般的には、組み込み機器に搭載されているAVデコーダは、映像ファイルの単位毎に再生処理を行うのが一般的となっており、再生処理毎に初期化処理を行う必要があり、ギャップを生じることなくループ再生を行うことができないといった問題がある。 In general, an AV decoder installed in an embedded device generally performs a reproduction process for each video file unit, and it is necessary to perform an initialization process for each reproduction process. There is a problem that loop reproduction cannot be performed without creating a gap.
本発明は上記のような問題を解決するためになされたものであり、映像ファイルを順次再生した場合に、映像ストリームの切換えに際して、ギャップを生じさせず、連続的に映像表示を行うことが可能な符号化映像再生装置を提供することを目的とする。 The present invention has been made to solve the above problems, and when video files are sequentially played back, it is possible to continuously display video without creating a gap when switching video streams. Another object of the present invention is to provide a coded video reproduction device.
本発明に係る符号化映像再生装置は、符号化された映像情報と音声情報とが多重化されたストリーム情報ファイルを再生する符号化映像再生装置であって、前記ストリーム情報ファイルから、前記映像情報と前記音声情報とを分離し、それぞれアクセスユニット単位に分割するストリーム分離部と、前記アクセスユニット単位に分割された、前記映像情報および前記音声情報を、それぞれの表示開始時刻と関連付けて記録するバッファと、前記表示開始時刻に基づいて、前記映像情報および前記音声情報を前記バッファから読み出して復号するデコーダと、前記バッファに対する前記表示開始時刻、前記映像情報および前記音声情報の記録の制御と、前記バッファから前記デコーダへの前記映像情報および前記音声情報の供給を制御するデータ供給制御部と、前記データ供給制御部による前記バッファへの前記映像情報および前記音声情報の記録に先立って、前記ストリーム情報ファイルの最初のアクセスユニットと、最終のアクセスユニットのデータ解析を行う解析部を備え、前記データ供給制御部は、先行するストリーム情報ファイルの映像情報および音声情報の供給を終えると、前記先行するストリーム情報ファイルの最終のアクセスユニットの表示開始時刻を、後続するストリーム情報ファイルの映像情報および音声情報の供給に先立って、前記後続するストリーム情報ファイルの最初のアクセスユニットの表示開始時刻に再設定し、前記解析部は、完全にフレーム画像を復号可能なアクセスユニットが前記最初のアクセスユニットおよび前記最終のアクセスユニットとなるように、アクセスユニットの並べ替えを行い、前記データ供給制御部は、並べ替えられた順に前記バッファに記録する。
An encoded video reproduction device according to the present invention is an encoded video reproduction device for reproducing a stream information file in which encoded video information and audio information are multiplexed, and the video information is reproduced from the stream information file. And a stream separation unit that separates the audio information into access units, and a buffer that records the video information and the audio information divided into access units in association with respective display start times. A decoder for reading and decoding the video information and the audio information from the buffer based on the display start time; a control for recording the display start time, the video information and the audio information in the buffer; A data supply control unit that controls the supply of the video information and the audio information from a buffer to the decoder, and the stream information prior to the recording of the video information and the audio information in the buffer by the data supply control unit. The data access control unit includes an analysis unit that analyzes the data of the first access unit and the last access unit of the file. The display start time of the last access unit of the information file is reset to the display start time of the first access unit of the subsequent stream information file prior to the supply of the video information and audio information of the subsequent stream information file , The analysis unit rearranges the access units so that the access units capable of completely decoding the frame image are the first access unit and the last access unit, and the data supply control unit rearranges them. The data is recorded in the buffer in the order described above .
本発明に係る符号化映像再生装置によれば、映像ストリームの切換えに際して、映像間にギャップを生じさせず、連続的に映像表示を行うことが可能となる。 According to the coded video playback device of the present invention, it is possible to continuously display video without causing a gap between videos when switching video streams.
<実施の形態>
<装置構成>
図1は、本発明に係る実施の形態の符号化映像再生装置100のシステム構成を示す機能ブロック図である。<Embodiment>
<Device configuration>
FIG. 1 is a functional block diagram showing a system configuration of a coded
図1に示すように符号化映像再生装置100は、システム制御部101、再生ドライバ102、ストリーム制御部110、映像音声デコーダ114(デコーダ)、映像音声調整部115およびメモリ120を備えており、再生ドライバ102、ストリーム制御部110、映像音声デコーダ114および映像音声調整部115はデコーダブロック119を構成している。デコーダブロック119は、システム制御部101からのデコーダ制御信号に基づいてストリーム情報の再生処理を行う。
As shown in FIG. 1, the coded
符号化映像再生装置100は、操作部130を介してユーザー等からの要求を受け付け、SDカード140に記録されている映像ファイル等を読み出して再生し、液晶表示装置等の表示装置116に表示する。一般的に操作部130は、符号化映像再生装置100のフロントパネルに配置されている操作パネル、リモートコントローラなどの入力機器を指す。
The encoded
システム制御部101は、符号化映像再生装置100全体を統合制御し、操作部130を介して与えられた命令の内容を解釈し、デコーダブロック119を制御することで任意のストリーム情報を再生する。例えば、再生ドライバ102を制御してSDカード140等の情報記録媒体から情報を読み出し、再生する。
The
SDカード140には、後述する符号化映像情報と符号化音声情報が多重化されたストリーム情報、および当該ストリーム情報の再生制御情報が記録されている。再生制御情報とは、ストリーム情報から分離した符号化映像および音声ストリームに関する映像および音声の属性情報、ストリーム情報のアクセス単位、通常はGOP(Group of Picture)単位で再生開始時間情報と再生開始位置情報の対応関係を示す情報などを含んでいる。
The
また、ストリーム情報としては、MPEG(Moving Picture Experts Group)−2 TS(Transport Stream)フォーマット、MP4フォーマット、WMV(Windows Media Video)フォーマットに対応する情報を含んでいる(Windowsは登録商標)。 The stream information includes information corresponding to MPEG (Moving Picture Experts Group)-2 TS (Transport Stream) format, MP4 format, and WMV (Windows Media Video) format (Windows is a registered trademark).
MP4フォーマットおよびWMVフォーマットで多重化されたストリーム情報ファイルは、ファイル内部に再生制御情報を保持している。一方、MPEG−2 TSフォーマットは当該再生制御情報をストリーム情報ファイル内に保持していないため、当該ストリーム情報ファイルに関連付けられた再生制御情報ファイルを別途に保持している。 The stream information file multiplexed in the MP4 format and the WMV format holds the reproduction control information inside the file. On the other hand, since the MPEG-2 TS format does not hold the playback control information in the stream information file, it separately holds the playback control information file associated with the stream information file.
ストリーム制御部110は、システム全体のストリームの流れを統括制御し、ストリーム制御部110内には、ストリーム分離部111およびAVバッファ112(バッファ)を有している。再生ドライバ102がSDカード140から読み出したストリーム情報ファイルには、符号化映像情報と符号化音声情報が多重化されており、ストリーム分離部111で、符号化映像情報と符号化音声情報に分離され、AVバッファ112に保存される。
The
映像音声デコーダ114は、MPEG−2などで符号化された符号化映像情報を復号化処理して映像情報に復号すると共に、AC(Audio Coding number)−3などで符号化された符号化音声情報を復号化処理して音声情報に復号する。
The video/
映像音声調整部115は、映像音声デコーダ114から出力される映像情報および音声情報を受け、それぞれ映像画質調整および出力音量レベル調整を行って、出力映像信号および出力音声信号として表示装置116に出力する。
The video/
システム制御部101内には、データ供給制御部151、静的解析部152(解析部)および出力映像音声制御部153を有している。
The
データ供給制御部151は、メモリ120から読み出したプレイリスト情報160に基づいて、再生ドライバ102から映像ストリーム情報を読み出すようにストリーム制御部110を制御し、ストリーム分離部111で分離された符号化映像情報および符号化音声情報をAVバッファ112にアクセスユニット単位で保存するようにストリーム分離部111を制御する。
The data
プレイリスト情報160は、SDカード140に記録されている映像ファイルをどのような順番で再生するかを示す情報であり、再生対象のファイル名、再生開始時刻と再生終了時刻、開始点および終了点近傍の解析情報などが保存されている。
The
静的解析部152は、ストリーム情報ファイルの再生開始時刻と再生終了時刻の近傍の、例えば符号化圧縮単位の0.5秒間の映像情報および音声情報を解析し、プレイリスト情報160の開始点および終了点の属性情報として記録する。
The
出力映像音声制御部153は、プレイリスト情報160内に記録される開始点および終了点の属性情報に基づいて、映像音声調整部115を制御する。
The output video/
なお、データ供給制御部151、静的解析部152および出力映像音声制御部153の各機能は、システム制御部101内に組み込まれたファームウェアなどで実現しても良いが、同様の機能を有するハードウェアで実現しても構わない。また、データ供給制御部151、静的解析部152および出力映像音声制御部153は、それぞれ別個の構成として示しているが、それぞれの機能が統合された1つの構成としても構わない。
Each function of the data
また、同様にストリーム制御部110内のストリーム分離部111およびAVバッファ112の各機能は、ストリーム制御部110内に組み込まれたファームウェアなどで実現しても良いが、同様の機能を有するハードウェアで実現しても構わない。
Similarly, the functions of the
<復号処理の流れ>
次に、符号化映像再生装置100における復号処理の流れについて説明する。再生ドライバ102がSDカード140から読み出したストリーム情報ファイルを再生する場合、システム制御部101はストリーム制御部110を制御して予めSDカード140から再生対象のストリーム情報ファイルに関連する再生制御情報を読み出しておく。システム制御部101は、読み出した再生制御情報をメモリ120に保持し、必要に応じて読み出す。システム制御部101は、メモリ120から読み出した再生制御情報に基づいて、制御統括下にある各部に対して再生準備を行うよう指示する。<Decoding process flow>
Next, the flow of the decoding process in the encoded
再生ドライバ102がSDカード140から読み出したストリーム情報ファイルは、ストリーム制御部110に入力され、ストリーム分離部111で符号化映像情報と符号化音声情報に分離される。
The stream information file read from the
その後、ストリーム分離部111は、符号化映像情報および符号化音声情報をアクセスユニット毎に分割し、AVバッファ112にアクセスユニット単位で保存する。なお、アクセスユニットとは符号化映像情報および符号化音声情報で取扱う複数のデータの処理単位であり、符号化映像情報では1フレーム単位、符号化音声情報では所定時間(例えば、0.1秒)単位のデータでアクセスユニットが形成される。
After that, the
AVバッファ112に記録されたアクセスユニット情報は、順次、映像音声デコーダ114に供給される。映像音声デコーダ114では、符号化映像情報を復号化処理して映像情報に復号し、符号化声情報を復号化処理して音声情報に復号する。
The access unit information recorded in the
復号された映像情報および音声情報は映像音声調整部115に入力され、映像画面全体のブライトネス、シャープネスなどの映像画質調整を行うと共に、出力音量レベル調整を行って出力映像信号および出力音声信号とし、表示装置116に出力する。
The decoded video information and audio information are input to the video/
表示装置116では、入力された出力映像信号に基づいた画像を表示し、また、出力音声信号に基づいた音をスピーカーを介して放音し、視聴に供する。
The
<システム制御部による制御>
本発明に係る符号化映像再生装置100においては、システム制御部101による制御に特徴を有している。すなわち、データ供給制御部151がAVバッファ112にデータを保存するのに先立って、静的解析部152がストリーム情報ファイル221のデータ解析を行い、完全にフレーム画像を復号可能なピクチャを開始点および終了点とするように並べ替えを行う。<Control by system controller>
The encoded
また、静的解析部152では、ストリーム情報ファイルの再生開始時刻と再生終了時刻の近傍の、例えば符号化圧縮単位の0.5秒間の映像情報および音声情報を予め解析し、映像情報の輝度分布、最終映像フレームの輝度を取得し、また、音声情報の音量レベル分布、最終音声アクセスユニットの音量レベルを取得し、プレイリスト情報160内に開始点および終了点の属性情報として記録する。
Further, the
出力映像音声制御部153は、プレイリスト情報160内に記録された開始点および終了点の属性情報に基づいて、映像シーンの繋ぎ目で、映像音声調整部115を制御することにより、急俊な映像輝度変化および音声出力レベル変化が起きないように、画質および音質の出力制御を行う。これにより、映像シーンの切換え点において、映像輝度および音声出力レベルが大きく変化しても、ユーザーにとって違和感のない映像シーンの切換えができる。
The output video/
<SDカードの論理ファイル構造>
図2は、SDカード140の論理ファイル構造を示す模式図である。ルートディレクトリ200は、論理的に階層構造を成すファイル構造の最上位階層のディレクトリ構造である。ルートディレクトリ200は、SDカード140に記録されているコンテンツ管理情報である再生制御情報ファイル211をまとめて記録したフォルダである再生制御情報ディレクトリ210と、ストリーム情報ファイル221をまとめて記録したフォルダであるストリーム管理ディレクトリ220とを有している。なお、再生制御情報ディレクトリ210が構築される記憶領域を再生制御情報領域と呼称し、ストリーム管理ディレクトリ220が構築される記憶領域をストリーム情報領域と呼称する。<SD card logical file structure>
FIG. 2 is a schematic diagram showing the logical file structure of the
図2において、再生制御情報ファイル211およびストリーム情報ファイル221は、5桁のファイル名により記録され、一対一で対応付けされている。ファイル名は5桁の数字であれば良く、連番である必要はない。また、MP4フォーマットとWMVフォーマットに関しては、ストリーム情報ファイル221内に再生制御情報を含むため、個別に対応した再生制御情報ファイル211を設ける必要はない。
In FIG. 2, the reproduction control information file 211 and the stream information file 221 are recorded by a 5-digit file name and are associated with each other on a one-to-one basis. The file name need only be a 5-digit number, and need not be a serial number. Further, regarding the MP4 format and the WMV format, since the reproduction control information is included in the stream information file 221, it is not necessary to provide the corresponding reproduction
なお、図2では、再生制御情報ファイル211とストリーム情報ファイル221は個別のディレクトリ内に配置する例を示したが、同一のディレクトリ内に配置しても良いし、これらのファイルがルートディレクトリ200に直接配置されていても構わない。また、再生制御情報ファイル211とストリーム情報ファイル221は、一対一で対応付けされているものとしたが、再生制御情報ファイル211に、対応するストリーム情報ファイル221がまとめて記録されていても構わない。
Although FIG. 2 shows an example in which the reproduction control information file 211 and the stream information file 221 are arranged in separate directories, they may be arranged in the same directory, or these files may be arranged in the
<再生制御情報ファイルのシンタックス>
図3は、再生制御情報ファイル211におけるシンタックスを説明する図である。「Start_PTS301」は対象となるストリーム情報ファイル221の最初のアクセスユニットの表示開始時刻を意味するPTS(Presentation Time Stamp)を示し、「End_PTS302」は最終のアクセスユニットの表示開始時刻を意味するPTSを示す。<Syntax of playback control information file>
FIG. 3 is a diagram for explaining the syntax in the reproduction
「属性情報管理テーブル310」には、ストリーム情報ファイル221の映像属性情報(解像度、ビットレート、フレームレート、HDR対応の有無)および音声属性情報(チャンネル数、サンプリングレート)、著作権保護に規定される暗号化の必要性情報、MPEG−TS方式かMPEG−PS(Program Stream)方式か、映像と音声を分離するためのパケット識別子などの多重化方式情報などの情報が記録されている。 The "attribute information management table 310" defines video attribute information (resolution, bit rate, frame rate, whether or not HDR is supported) of the stream information file 221, audio attribute information (number of channels, sampling rate), and copyright protection. Necessity information of encryption, information such as MPEG-TS method or MPEG-PS (Program Stream) method, and multiplexing method information such as a packet identifier for separating video and audio are recorded.
「アクセスポイント管理テーブル320」には、頭出し再生に必要となる情報が記録されている。例えば映像データがMPEG−2のビデオストリームでエンコードされている場合、GOP(Group of Picture)の先頭が、アクセスポイントに相当する。本実施の形態ではストリーム情報ファイル221のどのパケットに、GOPの先頭が存在するかが頭出し再生に必要となる情報として記録されている。 In the "access point management table 320", information necessary for cue reproduction is recorded. For example, when the video data is encoded by a video stream of MPEG-2, the head of GOP (Group of Picture) corresponds to the access point. In the present embodiment, which packet of the stream information file 221 contains the head of the GOP is recorded as information necessary for the cue reproduction.
「アクセスポイント管理テーブル320」の「num_of_entry321」は、アクセスポイントの総数を示し、「num_of_entry321」の1つ下の行にあるループ文(for以下)は、「num_of_entry321」の数だけ繰り返される。 The “num_of_entry 321” of the “access point management table 320” indicates the total number of access points, and the loop statement (for or less) in the line immediately below the “num_of_entry 321” is repeated by the number of “num_of_entry 321”.
「PTS_GOP_Start331」は、アクセスポイントの表示開始PTSを示し、「SPN_GOP_Start332」はストリーム情報ファイル221の先頭からアクセスポイントの先頭までの相対パケット数である。パケットは固定長であることから、ストリーム情報ファイル221の先頭からアクセスポイント先頭までの相対バイト数は、「SPN_GOP_Start332」の値とパケット当たりのバイト数を掛け合せた値で算出できる。符号化映像再生装置100は、ストリーム情報ファイル221の先頭からのバイト数から、ディスク上のアクセスポイントの位置を割り出し、頭出し再生を行う。
“
<ピクチャの並べ替え>
図4は、符号化圧縮映像ファイルの蓄積順配列と表示順配列の関係を説明する模式図である。ストリーム情報ファイル221は、蓄積順配列401に示されるように、蓄積フレーム順に記録されるが、本実施の形では、再生開始前に、静的解析部152がストリーム情報ファイル221のデータ解析を静的に行い表示順配列402のように並べ替えを行う。<Picture rearrangement>
FIG. 4 is a schematic diagram illustrating the relationship between the storage order array and the display order array of the encoded compressed video file. The stream information file 221 is recorded in the order of accumulated frames as shown in the
すなわち、符号化圧縮単位であるGOPは、フレーム内でデータ圧縮されたIピクチャ(I)と、時間的に前方向のIピクチャまたはPピクチャによる動き補償を加えてデータ圧縮されたPピクチャ(P)と、時間的に前後方向のIピクチャおよびPピクチャによる動き補償を加えてデータ圧縮されたBピクチャ(B)とで構成されている。 That is, the GOP, which is a coding compression unit, includes a data-compressed I picture (I) and a data-compressed P picture (P) that is motion-compensated by an I picture or P picture that is temporally forward. ) And a B picture (B) which is data-compressed by adding motion compensation by I and P pictures in the front and rear direction in terms of time.
蓄積順配列401では、Iピクチャは、GOPの先頭に位置しており、次に、Bピクチャが連続し、その後にPピクチャとなり、以下、B、B、Pの順で繰り返して配列される。
In the
通常、ストリーム情報ファイル221の表示開始時刻はStart_PTS301(S_PTS301と略記)で規定され、表示終了時刻はEnd_PTS302(E_PTS302と略記)で規定され、図4の蓄積順配列401ではIピクチャの次のBピクチャがS_PTS301となり、最後のPピクチャがE_PTS302となっている。しかしながら、図4においてS_PTS301となったBピクチャは、フレーム画像を完全に復号化できるとは限らない。例えば当該BピクチャがオープンGOPで得られる場合は、当該Bピクチャを得るために参照するピクチャが前に存在しないため、フレーム画像を完全に復号化することができず、ブロックノイズが発生するなどの問題がある。
Normally, the display start time of the stream information file 221 is specified by Start_PTS301 (abbreviated as S_PTS301), and the display end time is specified by End_PTS302 (abbreviated as E_PTS302). In the
そこで、本実施の形態では、再生開始前に、静的解析部152がストリーム情報ファイル221のデータ解析を静的に行い、完全にフレーム画像を復号可能なピクチャを開始点および終了点とするように並べ替えを行って表示順配列402を得る。図4に示す表示順配列402では、GOPの先頭がBピクチャであり、さらにBピクチャが続き、その次がIピクチャとなっており、当該Iピクチャを開始点であるS_VALID_PTS411とし、GOPの最後のPピクチャを終了点であるE_VALID_PTS412としている。
Therefore, in the present embodiment, before the reproduction is started, the
Iピクチャはフレーム内でデータ圧縮されているので完全に復号可能であり、最後のPピクチャは時間的に前方向のPピクチャによる動き補償を加えてデータ圧縮されているので完全に復号可能である。 The I picture is completely decodable because it is data-compressed in the frame, and the last P picture is completely decodable because it is data-compressed with motion compensation by the P picture that is forward in time. ..
また、静的解析部152は、S_VALID_PTS411の映像フレームを含むGOPにおいて、S_VALID_PTS411以降の映像フレームの映像輝度情報および表示開始時刻以降の音声出力レベルを検出する。同様にE_VALID_PTS412の映像フレームを含むGOPにおいて、E_VALID_PTS412までの映像フレームの映像輝度情報と、当該表示終了時刻までの音声出力レベルを検出する。
Further, the
なお、本実施の形態では、1つの符号化圧縮単位で情報を保持する例を示しているが、例えば複数の符号化圧縮単位で情報を保持する構成としても良いし、1つの符号化圧縮単位よりも少ないフレーム数で情報を保持する構成としても良い。 It should be noted that although an example in which information is held in one coding compression unit is shown in the present embodiment, for example, a configuration may be used in which information is held in a plurality of coding compression units, or one coding compression unit. The information may be stored with a smaller number of frames.
静的解析部152で得られたS_VALID_PTS411、E_VALID_PTS412、映像輝度情報および音声出力レベルの情報は、メモリ120のプレイリスト情報160にフィードバックされる。
The
<プレイリスト情報のシンタックス>
図5は、プレイリスト情報160におけるシンタックスを説明する図である。「num_of_PlayList501」は、サイネージ表示を行う単位となるプレイリストの総数、「PlayList_Attribute502」は、プレイリストの総時間、プレイリスト名称、および記録日時のようなプレイリストの属性情報が保持されている。<Syntax of playlist information>
FIG. 5 is a diagram illustrating the syntax in the
「PlayList_Attribute502」の1つ下の行にあるループ文(for以下)は、「num_of_PlayList501」の数だけ繰り返される。 The loop statement (below "for") in the line immediately below "PlayList_Attribute502" is repeated for the number of "num_of_PlayList501".
「num_of_MovieFile503」は、プレイリストを構成しているストリーム情報ファイル221の総数を示し、「num_of_MovieFile503」の1つ下の行にあるループ文(for以下)は、「num_of_MovieFile503」の数だけ繰り返される。 “Num_of_MovieFile 503” indicates the total number of stream information files 221 forming the playlist, and the loop statement (for or less) in the line immediately below “num_of_MovieFile 503” is repeated by the number of “num_of_MovieFile 503 ”.
「stream_name504」は、再生の対象となるストリーム情報ファイル221のファイル名を示し、「S_VALID_PTS411」および「E_VALID_PTS412」は、それぞれ再生対象のストリーム情報ファイル221の所定区間の再生開始時刻と再生終了時刻を示す。本実施の形態では、フレーム画像を完全に復号可能なピクチャのPTSを「S_VALID_PTS411」、「E_VALID_PTS412」としている。これらの情報から、符号化映像再生装置100は、ストリーム情報ファイル221のどの区間を再生すれば良いのかを判断することができる。
“
なお、「stream_name504」、「S_VALID_PTS411」および「E_VALID_PTS412」の情報を再生区間情報と呼称する。
The information of "
映像輝度情報510と音声レベル情報511は、前述したように静的解析部152において解析されたストリーム情報ファイル221の開始点近傍と終了点近傍の、映像輝度と音声出力レベルの情報である。
The
解析日時情報512とは、静的解析部152においてストリーム情報ファイル221を解析した日時の情報であり、解析対象となるストリーム情報ファイル221を特定するファイル特定情報と関連付けて記録する。
The analysis date/time information 512 is information on the date/time when the stream information file 221 was analyzed by the
静的解析部152は、「S_VALID_PTS411」、「E_VALID_PTS412」、映像輝度情報510および音声レベル情報511を得るためにストリーム情報ファイル221の解析を映像ファイル再生処理に先立って行うが、解析には多くの時間を必要とする。このため、解析日時情報512とファイル特定情報とを関連付けて記録することで、ストリーム情報ファイル221に変化がなければ、すなわち、以前に解析された結果と変化がない場合は、解析処理を行わないようにする。デジタルサイネージでは、符号化映像をループ再生で表示する形態が広く用いられているので、一度解析した後は、解析日時情報512が変更されることは少なく、解析を繰り返すことを回避することができ、解析に伴う復号処理の遅延を回避できる。
The
なお、ファイル特定情報とは、ファイルの更新日時、ファイルサイズ、ファイル名などを関連付けた情報であり、ストリーム情報ファイル221の変化の有無は、これらのファイル特定情報の変更の有無で判断する。 Note that the file identification information is information that associates a file update date/time, a file size, a file name, and the like, and whether or not the stream information file 221 has changed is determined by whether or not the file identification information has been changed.
なお、静的解析部152で抽出される「S_VALID_PTS411」、「E_VALID_PTS412」、映像輝度情報510、音声レベル情報511および解析日時情報512を、静的解析情報と呼称する。
The "S_VALID_PTS411", "E_VALID_PTS412", the
<AVバッファへの保存>
図6は、ストリーム分離部111で分離された符号化映像情報および符号化音声情報をAVバッファ112に保存する場合の保存形態を説明する図である。図6に示すように、SDカード140には、複数のストリーム情報ファイル221が記録されている。ストリーム情報ファイル221は、MPEG−TSフォーマットで作成されたMTSファイル、MP4フォーマットで作成されたMP4ファイルおよびWMVフォーマットで作成されたWMVファイルなど様々な多重化フォーマットで作成されたファイルを含んでも良い。<Saving to AV buffer>
FIG. 6 is a diagram illustrating a storage mode in which the encoded video information and the encoded audio information separated by the
多重化されたファイルであるストリーム情報ファイル221は、ストリーム分離部111で符号化映像情報と符号化音声情報に分離され、図6に示されるように、アクセスユニット単位でAVバッファ112に保存される。
The stream information file 221 that is a multiplexed file is separated into encoded video information and encoded audio information by the
AVバッファ112は、映像用バッファ601および音声用バッファ602を備え、それぞれのバッファは、連続的にデータを供給するために複数のバッファ領域を有しており、バッファ領域にアクセスユニット単位で情報が記録される。この情報の記録領域を、アクセスユニット情報領域と呼称する。
The
本実施の形態では映像用バッファ601として30領域、音声用バッファ602として10領域のバッファ領域を有しているものとする。
In this embodiment, it is assumed that the
映像のフレームレートが30fps(frames per second)である場合、1/30秒×30=1秒分の映像データを保存することができる。また、音声も1アクセスユニットが0.1秒とすると、0.1秒×10=1秒分の音声データを保存することが可能となる。 When the frame rate of video is 30 fps (frames per second), 1/30 second×30=1 second of video data can be stored. As for voice, if one access unit has 0.1 second, it is possible to store 0.1 second×10=1 second of voice data.
映像用バッファ601のアクセスユニット情報領域には、符号化映像情報610と映像表示開始時刻611とが関連付けて記録されている。同様に音声用バッファ602のアクセスユニット情報領域には、符号化音声情報620と音声表示開始時刻621が関連付けて記録されている。
In the access unit information area of the
一般的に、多重化されたストリーム情報ファイル221では、アクセスユニット単位で表示開始時刻が記録されている。当該表示開始時刻を、映像表示開始時刻611および音声表示開始時刻621に設定し、映像音声デコーダ114は当該時刻情報に従って、AVバッファ112のアクセスユニット情報領域から符号化映像情報610や符号化音声情報620を読み出して復号化処理を行う。このような制御データフローは、組み込み機器向けの汎用マルチメディア制御の仕様であるOpenMAXでも利用されている。
Generally, in the multiplexed stream information file 221, the display start time is recorded for each access unit. The display start time is set to the video
<映像輝度および音声出力レベルの調整>
図7は、映像表示とデータ供給のタイミングを示す図であり、横軸は時間軸である。ここでは、プレイリストとして、MTSファイルの「00111.mts」を2回再生させた後、MP4ファイルの「99999.mp4」を再生させる場合についての説明を行うものとする。<Adjustment of video brightness and audio output level>
FIG. 7 is a diagram showing the timing of image display and data supply, and the horizontal axis is the time axis. Here, a case will be described in which, as the playlist, the MTS file “00111.mts” is reproduced twice and then the MP4 file “99999.mp4” is reproduced.
まず、データ供給制御部151は、SDカード140のストリーム情報ファイル221の中から「00111.mts」ファイルを読み出し、時刻t1でストリーム分離部111への供給を開始する。ストリーム分離部111で符号化映像情報と符号化音声情報に分離された後、ストリーム分離部111は、符号化映像情報および符号化音声情報のアクセスユニット毎に情報を取り出し、AVバッファ112にアクセスユニット単位で供給する。その際に、設定する映像表示開始時刻611および音声表示開始時刻621には、ストリーム情報ファイル221に記録されているアクセスユニット毎の表示時刻(タイムスタンプ)が付与される。
First, the data
その後、AVバッファ112に記録されたアクセスユニット情報は、順次、映像音声デコーダ114に供給され、映像音声デコーダ114では、符号化情報を復号化して時刻t2で映像表示を開始する。
After that, the access unit information recorded in the
データ供給制御部151は、「00111.mts」ファイルのファイル終端までデータ供給を続け、先行で読み出したストリーム情報ファイル221の全データ供給を終えると、すぐに後続するストリーム情報ファイル221を読み出し、時刻t3で再びストリーム分離部111への供給を開始する。この時点では先行するストリーム情報ファイルの再生(映像表示)が継続しているが、映像音声デコーダ114は、時刻t4で後続するストリーム情報ファイルの再生を開始し、映像表示が切り替わることになる。「99999.mp4」ファイルについても時刻t5でストリーム分離部111への供給を開始し、時刻t6で再生を開始する。
The data
図8は、図7に示すようなタイミングチャートに基づいてストリーム情報ファイルを再生する場合についての、映像輝度および音声出力レベルの調整を説明する図である。図8において、映像表示のタイミングチャートと、静的解析部152での解析によって得られた映像輝度情報510および音声レベル情報511を示しており、横軸は時間軸である。
FIG. 8 is a diagram for explaining the adjustment of the video luminance and the audio output level when the stream information file is reproduced based on the timing chart as shown in FIG. FIG. 8 shows a timing chart of video display,
出力映像音声制御部153は、メモリ120に記録されたプレイリスト情報160から、映像輝度情報510および音声レベル情報511を読み出す。図8に示されるように、先行する「00111.mts」ファイルによる映像表示が、後続の「00111.mts」ファイルによる映像表示に切り替わる時刻T3において、映像輝度および音声出力レベルに、大きな差異が存在する。
The output video/
出力映像音声制御部153は、当該差異が予め定めた所定の設定値以上である場合には、差異を減少させるように、当該映像再生区間において映像音声調整部115を制御する。具体的には、映像輝度については、図8の例の場合には、時刻T2〜T3の区間で、後続するストリーム情報ファイル221の開始点、すなわち時刻T3での輝度になるまで出力輝度を減少させるように映像音声調整部115を制御する。その結果、時刻T3において、映像輝度差が解消されるため、ユーザーにとって違和感のない映像シーンの切換えを行うことができる。
The output video/
同様に音声出力レベルについては、後続するストリーム情報ファイル221の開始点、すなわち時刻T3での音声出力レベルを、先行するストリーム情報ファイルの終了点、すなわち時刻T3での音声出力レベルに合わせるように音声出力レベルを下げる。その後、時刻T4で後続するストリーム情報ファイル221の本来の音声出力レベルになるように徐々に音声出力レベルを上げるように映像音声調整部115を制御する。その結果、時刻T3において、音声出力レベル差が解消されるため、ユーザーにとって違和感のない映像シーンの切換えを行うことができる。
Similarly, regarding the audio output level, the audio output level at the start point of the subsequent stream information file 221, that is, the audio output level at time T3 is adjusted so as to match the ending point of the preceding stream information file, that is, the audio output level at time T3. Lower the output level. After that, at time T4, the video/
一方、図8に示されるように、2つ目の「00111.mts」ファイルによる映像表示が、後続の「99999.mp4」ファイルによる映像表示に切り替わる時刻T6においては、映像輝度および音声出力レベルに、大きな差異は存在しない。出力映像音声制御部153は、当該差異は予め定めた所定の設定値未満であるとして、調整は不要と判断し、特段の制御は行わない。
On the other hand, as shown in FIG. 8, at time T6 when the video display by the second “00111.mts” file is switched to the video display by the subsequent “99999.mp4” file, the video brightness and the audio output level are changed. , There is no big difference. The output video/
なお、時刻T2〜T4の区間および時刻T5〜T7の区間は、静的解析部152が解析する前後関係にあるストリーム情報ファイルの再生開始時刻と再生終了時刻、すなわちストリーム情報ファイルの接続点の近傍の区間であり、例えば、符号化圧縮単位の0.5秒間の区間に相当する。図8おいては、便宜的に「00111.mts」ファイルおよび「99999.mp4」ファイルの全期間分の映像輝度および音声出力レベルを示したが、静的解析部152による解析は、上述した時刻T2〜T4の区間および時刻T5〜T7の区間について行えば良い。
Note that the section from time T2 to T4 and the section from time T5 to T7 are the reproduction start time and reproduction end time of the stream information file in the context of being analyzed by the
また、上記においては、時刻T3におけるアクセスユニットでの映像輝度および音声出力レベルの瞬時値の差異を用いて調整の要否を判断しているが、例えば時刻T2〜T3の区間、すなわち時刻T3における先行するストリーム情報ファイルの最終のアクセスユニットと、それより前の複数の先行アクセスユニットとを含む先行するストリーム情報ファイルの終了部分における映像輝度および音声出力レベルの平均値と、時刻T3における後続するストリーム情報ファイルの最初のアクセスユニットと、それより後の複数の後続アクセスユニットとを含む後続するストリーム情報ファイルの開始部分における映像輝度および音声出力レベルの平均値との差異を用いて調整の要否を判断しても構わない。 Further, in the above, whether or not the adjustment is necessary is determined by using the difference between the video brightness and the instantaneous value of the audio output level at the access unit at time T3. However, for example, the section between time T2 and T3, that is, at time T3 The average value of the video brightness and the audio output level at the end portion of the preceding stream information file including the last access unit of the preceding stream information file and the plurality of preceding access units before it, and the subsequent stream at time T3 Whether the adjustment is necessary or not is made by using the difference between the average value of the video luminance and the audio output level at the start portion of the subsequent stream information file including the first access unit of the information file and a plurality of subsequent access units after that. You may judge.
<符号化映像再生装置の全体動作>
次に、図1を参照しつつ、図9に示すフローチャートを用いて符号化映像再生装置100における全体動作を説明する。図9に示すように符号化映像再生装置100は、操作部130を介してプレイリストに基づいた再生の指示を受けることで動作を開始し、まず、システム制御部101は、SDカード140からストリーム情報ファイル221を読み出すように再生ドライバ102を制御する。<Entire operation of coded video playback device>
Next, referring to FIG. 1, the overall operation of the coded
ストリーム情報ファイル221は、ストリーム制御部110に入力され、ストリーム分離部111で符号化映像情報と符号化音声情報に分離される。その後、ストリーム分離部111は、符号化映像情報および符号化音声情報のアクセスユニット毎に情報を取り出し、AVバッファ112にアクセスユニット単位で保存する。これが、ステップS103の映像ファイル再生処理であるが、AVバッファ112へのアクセスユニット情報の保存の前に、静的解析部152が静的解析処理を実行する(ステップS101)。なお、映像ファイル再生処理については、後にさらに説明する。
The stream information file 221 is input to the
静的解析部152は、ストリーム情報ファイル221のデータ解析を行い、完全にフレーム画像を復号可能なピクチャを開始点および終了点とするように並べ替えを行い、データ供給制御部151は、並べ替えられた順に従ってAVバッファ112にアクセスユニット単位で保存する。また、符号化映像情報および符号化音声情報に対して、それぞれ映像輝度解析および音声レベル解析を実行する。静的解析処理によって得られた情報は、メモリ120のプレイリスト情報160にフィードバックされる。なお、静的解析処理については、後にさらに説明する。
The
出力映像音声制御部153は、メモリ120に記録されたプレイリスト情報160から得られた映像輝度情報510および音声レベル情報511に基づいて、ストリーム情報ファイル221の接続点と、その近傍の区間における映像輝度の差異および音声出力レベルの差異が、所定の設定値以上か否かを判定する。設定値以上であれば当該区間に対して、映像音声調整部115を制御することにより、出力信号をフィルタリングするためのフィルタ設定処理を行う(ステップS102)。
The output video/
この出力信号のフィルタリングが、図8を用いて説明した映像音声調整部115による調整処理であり、この調整処理のために映像音声調整部115の設定を変える処理がフィルタ設定処理である。なお、静的解析処理は、先行するストリーム情報ファイル221に対応する解析が終了し、ストリーム分離部111で後続のストリーム情報ファイル221に対する分離処理が開始されることで後続のストリーム情報ファイル221に対する解析を始めるので、先行するストリーム情報ファイル221と後続のストリーム情報ファイル221の接続点と、その近傍の区間であれば、映像輝度および音声出力レベルの情報を有している。そのため、上述したように当該区間での映像輝度の差異および音声出力レベルの差異を判定することができる。
The filtering of this output signal is the adjustment processing by the video/
次に、システム制御部101は、ステップS103においてアクセスユニット単位でAVバッファ112に保存されたアクセスユニット情報を、図7を用いて説明した手順で、順次、映像音声デコーダ114に供給し、データ供給制御部151は、図7の時刻t3およびt5のように、読み出したストリーム情報ファイルの映像音声デコーダ114への全データ供給が終了したか否かを判定する(ステップS104)。
Next, the
ステップS104において、読み出したストリーム情報ファイルの全データ供給が終了したと判定した場合(YES)は、当該ストリーム情報ファイルの次に再生すべきストリーム情報ファイルが存在するか否かを、プレイリストに基づいて判定する(ステップS105)。一方、全てのデータ供給が終了していない場合(NO)は、ステップS103の処理を続ける。 When it is determined in step S104 that the supply of all the data of the read stream information file is completed (YES), it is determined whether or not there is a stream information file to be reproduced next to the stream information file based on the playlist. (Step S105). On the other hand, if all the data supply has not been completed (NO), the process of step S103 is continued.
ステップS105において、次のプレイリストが存在すると判定された場合(YES)は、ステップS106に移行し、次のプレイリストが存在しない場合(NO)は、プレイリストに基づいた再生を終了する。 In step S105, when it is determined that the next playlist exists (YES), the process proceeds to step S106, and when the next playlist does not exist (NO), the reproduction based on the playlist ends.
データ供給制御部151は、先行して再生していたストリーム情報ファイルのファイル終端を示すPTS(E_VALID_PTS412)をタイムスタンプのオフセット時刻としてAVバッファ112に記録する(ステップS106)。その後、次のストリーム情報ファイルの供給を開始し(ステップS107)、ステップS103以下の処理を繰り返す。なお、オフセット時刻とは、次のストリーム情報ファイルの表示開始時刻をずらすと言う意味で用いている。
The data
データ供給制御部151は、次のストリーム情報ファイルの映像音声デコーダ114への供給に先立って、AVバッファ112でアクセスユニット単位で設定されている映像表示開始時刻611および音声表示開始時刻621を、記録したオフセット時刻に変更した後、即座に、次のストリーム情報ファイルの供給を開始する。その後は、供給するストリーム情報ファイルのアクセスユニットの読み出しの時間間隔に合わせて、順次、アクセスユニット毎に映像表示開始時刻611および音声表示開始時刻621を変更する。
The data
このように、先行して再生していたストリーム情報ファイルのファイル終端を示すPTSをタイムスタンプのオフセット時刻とし、次のストリーム情報ファイルにおいては当該オフセット時刻を映像および音声の表示開始時刻とすることで、映像シーンを途切れさせることなく連続的に再生することが可能となる。 As described above, the PTS indicating the file end of the stream information file that was reproduced in advance is set as the offset time of the time stamp, and the offset time is set as the video and audio display start time in the next stream information file. , It becomes possible to continuously reproduce the video scene without interruption.
<静的解析処理>
次に、図10に示す静的解析処理の動作を示すフローチャートを用いて、静的解析処理についてさらに説明する。<Static analysis processing>
Next, the static analysis process will be further described with reference to the flowchart showing the operation of the static analysis process shown in FIG.
静的解析処理において、静的解析部152は、まずメモリ120のプレイリスト情報160から解析日時情報512(図5)を読み出し、プレイリスト情報160中に有効な静的解析情報を有するか否かを判定する(ステップS201)。
In the static analysis process, the
この判定は、再生しようとしているストリーム情報ファイルの解析日時情報512が変更されているか否かで判定され、解析日時情報512に含まれるファイルの更新日時、ファイルサイズおよびファイル名が変更されているか否かで判定され、何れも変更されていない場合は解析日時情報512が変更されておらず、有効な静的解析情報があるものと判定し(YES)、以下の解析処理を行わずに終了する。なお、ファイルの更新日時、ファイルサイズおよびファイル名が更新されているか否かは、ファイルのプロパティの情報によって確認することができる。 This determination is made based on whether or not the analysis date/time information 512 of the stream information file to be reproduced has been changed, and whether or not the file update date/time, file size and file name included in the analysis date/time information 512 have been changed. If the analysis date/time information 512 has not been changed and there is valid static analysis information (YES), the processing is ended without performing the following analysis processing. .. Whether or not the file update date/time, file size, and file name have been updated can be confirmed by the file property information.
一方、解析日時情報512が変更されている場合は、有効な静的解析情報がないものと判定し(NO)、ステップS202に進んでストリーム情報ファイル221から静的解析情報を抽出する。
On the other hand, when the analysis date/time information 512 is changed, it is determined that there is no valid static analysis information (NO), and the process proceeds to step S202 to extract the static analysis information from the
ステップS202では、映像属性情報を取得する。映像属性情報としては、例えば、MPEGのシーケンスヘッダを抽出し、当該ヘッダ情報から、解像度、フレームレート、HDR(High Dynamic Range)対応の有無を取得する。HDRは通常の映像の輝度情報より広い範囲の輝度情報を持つ規格であり、HDR対応の有無とは、この規格に対応しているか否かを示す情報である。 In step S202, video attribute information is acquired. As the video attribute information, for example, an MPEG sequence header is extracted, and the resolution, frame rate, and HDR (High Dynamic Range) compatibility are acquired from the header information. HDR is a standard having brightness information in a wider range than the brightness information of normal video, and whether or not HDR is supported is information indicating whether or not this standard is supported.
また、ストリーム情報ファイル221のPES(Packetized Elementary Stream)ヘッダの開始点/終了点、およびファイルサイズからビットレート情報を算出する。PESヘッダは、アクセスユニット単位毎のヘッダであり、内部情報としてPTS(Presentation Time Stamp)およびDTS(Decoding Time Stamp)を保持しており、ファイルサイズをPTS差(終了PTS−開始PTS=再生時間)で割ることでビットレートを算出できる。 Also, the bit rate information is calculated from the start point/end point of the PES (Packetized Elementary Stream) header of the stream information file 221 and the file size. The PES header is a header for each access unit, holds PTS (Presentation Time Stamp) and DTS (Decoding Time Stamp) as internal information, and sets the file size to PTS difference (end PTS-start PTS=playback time). The bit rate can be calculated by dividing by.
映像属性情報を取得した後は、音声属性情報を取得する(ステップS203)。音声属性情報は、音声ヘッダ情報から、チャンネル数、サンプリングレートを抽出する。 After acquiring the video attribute information, the audio attribute information is acquired (step S203). As the audio attribute information, the number of channels and sampling rate are extracted from the audio header information.
次に、ステップS204において映像開始点を検出し、ステップS205において映像終了点を検出する。具体的には、図4を用いて説明したように、蓄積フレーム順に記録されたストリーム情報ファイル221において、参照関係が確立できていないピクチャS_PTS301はS_VALID_PTS411として使用せず、IピクチャをS_VALID_PTS411として使用する。また、E_PTS302は参照関係が確立できているのでE_VALID_PTS412として使用するようにピクチャ、ここではアクセスユニットの並べ替えを行う。
Next, in step S204, the video start point is detected, and in step S205, the video end point is detected. Specifically, as described with reference to FIG. 4, in the stream information file 221 recorded in the order of accumulated frames, the picture S_PTS301 whose reference relationship has not been established is not used as S_VALID_PTS411, but the I picture is used as S_VALID_PTS411. .. Further, since the
ストリーム情報ファイル221のPES(Packetized Elementary Stream)ヘッダから、S_PT301およびE_PTS302を抽出でき、ピクチャの種別(I、P、B)から参照関係が判るので、映像フレームの完全に復号可能な開始点(S_VALID_PTS)および終了点(E_VALID_PTS)を設定することができる。 Since S_PT301 and E_PTS302 can be extracted from the PES (Packetized Elementary Stream) header of the stream information file 221, and the reference relationship can be known from the picture type (I, P, B), the start point (S_VALID_PTS) at which the video frame can be completely decoded. ) And the end point (E_VALID_PTS) can be set.
次に、ステップS206において、映像輝度の解析を行う。映像輝度の解析は、S_VALID_PTS411を含む開始点近傍の映像符号化圧縮単位に対して、ソフトウェアデコード処理を行い、映像フレーム毎に輝度値ヒストグラムを生成し、映像輝度平均値、映像輝度最大値を抽出する。同様に、E_VALID_PTS412を含む終了点近傍の映像符号化圧縮単位に対してもソフトウェアデコード処理を行い、映像輝度平均値、映像輝度最大値を抽出する。
Next, in step S206, the image brightness is analyzed. For video luminance analysis, software decoding processing is performed on the video coding compression unit near the start point including S_VALID_PTS411, a luminance value histogram is generated for each video frame, and a video luminance average value and a video luminance maximum value are extracted. To do. Similarly, the software decoding process is also performed on the video coding compression unit near the end point including the
映像輝度の解析に際しては画像データを標本化し、それを量子化することで画素毎の輝度値を得ることができ、横路に輝度値、縦軸に各輝度値を持つ画素の個数として表すことで輝度値ヒストグラムを得ることができる。輝度値ヒストグラムを用いると、画像中の画素の輝度値の分布を知ることができ、明るさ、色の補正、コントラストの強調などの画像処理ができ、また、平均輝度および最大輝度も取得できる。 When analyzing the image brightness, the image data is sampled and the value can be quantized to obtain the brightness value for each pixel. By expressing the brightness value on the horizontal axis and the number of pixels having each brightness value on the vertical axis, A luminance value histogram can be obtained. By using the brightness value histogram, it is possible to know the distribution of the brightness values of the pixels in the image, perform image processing such as brightness and color correction, and emphasize contrast, and also obtain the average brightness and the maximum brightness.
次に、ステップS207において、音声レベルの解析を行う。音声レベルの解析は、S_VALID_PTS411を含む開始点近傍の映像符号化圧縮単位の区間に対して、音声符号化圧縮単位のソフトウェアデコード処理を行い、音声出力レベルを抽出する。同様に、E_VALID_PTS412を含む終了点近傍の映像符号化圧縮単位に対してもソフトウェアデコード処理を行い、音声出力レベルを抽出する。符号化圧縮された音声情報を復号化すると、出力音声レベルを持つ音声情報となり音声出力レベルの抽出が可能となる。
Next, in step S207, the sound level is analyzed. In the analysis of the audio level, the software decoding process of the audio encoding compression unit is performed on the section of the video encoding compression unit near the start point including S_VALID_PTS411 to extract the audio output level. Similarly, the software decoding process is also performed on the video coding compression unit near the end point including the
なお、上述したステップS206およびS207におけるS_VALID_PTS411を含む開始点近傍およびE_VALID_PTS412を含む終了点近傍とは、例えば開始点および終了点を中心とした0.5秒間の映像符号化圧縮単位であり、図8に示した、時刻T2〜T4の区間および時刻T5〜T7の区間に相当する。 Note that the vicinity of the start point including S_VALID_PTS 411 and the vicinity of the end point including E_VALID_PTS 412 in steps S206 and S207 described above are, for example, a 0.5 second video encoding compression unit centered on the start point and the end point, Corresponds to the section from time T2 to T4 and the section from time T5 to T7.
最後に、ステップS208において、メモリ120のプレイリスト情報160に解析日時情報を保存する。解析日時情報には、静的解析情報を取得した日時情報、静的解析したファイルの更新日時、ファイルサイズ、ファイル名、SDカードの種別情報などのファイル特定情報を記録する。
Finally, in step S208, the analysis date/time information is stored in the
<ファイル再生処理>
次に、図11に示すファイル再生処理の動作を示すフローチャートを用いて、ファイル再生処理についてさらに説明する。<File playback process>
Next, the file reproducing process will be further described with reference to the flowchart showing the operation of the file reproducing process shown in FIG.
ファイル再生処理においては、まず、データ供給制御部151からの指示に基づいて、再生ドライバ102がSDカード140から再生対象のストリーム情報ファイルの読み込みを行う(ステップS301)。ファイル読み込み単位は、所定のファイルサイズで行うものとし、本実施の形態では1MB(メガバイト)毎に読み込むものとする。
In the file reproduction process, first, the
再生ドライバ102が読み込んだストリーム情報ファイルは、ストリーム分離部111に入力されて、符号化映像情報と符号化音声情報とに分離される(ステップS302)。
The stream information file read by the
分離された符号化映像情報および符号化音声情報は、アクセスユニット単位に分割されると共に、アクセスユニット単位の表示開始時刻(映像表示開始時刻611および音声表示開始時刻621)を抽出し、タイムスタンプとしてアクセスユニットに付与し、AVバッファ112への書込みが行われる(ステップS303)。
The separated encoded video information and encoded audio information are divided into access unit units, and the display start time (video
その後、符号化映像情報および符号化音声情報は、アクセスユニット単位毎に、映像音声デコーダ114に供給され、映像音声デコーダ114で復号される(ステップS304)。
Thereafter, the coded video information and the coded audio information are supplied to the video/
その後、1MB毎に読み込まれたデータにストリーム情報ファイルのファイル終端が含まれているか否かを判定し(ステップS305)、ファイル終端が含まれていない場合(NO)には、ステップS301に移行し、次の1MBのデータを読み込む。一方、ファイル終端を検出(YES)した場合は、当該ストリーム情報ファイル全てが映像音声デコーダ114に供給されたものと判断し、ファイル再生処理を終了する。
After that, it is determined whether or not the data read for each 1 MB includes the file end of the stream information file (step S305), and if the file end is not included (NO), the process proceeds to step S301. , Read the next 1 MB of data. On the other hand, when the end of the file is detected (YES), it is determined that all the stream information files have been supplied to the video/
以上説明したように、本発明に係る符号化映像再生装置100においては、図9に示すフローチャートを用いて説明したように、先行して再生していたストリーム情報ファイルのファイル終端を示すPTSをタイムスタンプのオフセット時刻とし、次のストリーム情報ファイルにおいては当該オフセット時刻を映像および音声の表示開始時刻とすることで、映像音声デコーダ114での初期化処理を省略でき、初期化処理に費やす時間が不要となって、映像シーンを途切れさせることなく連続的に再生することが可能となる。このため、映像ストリームの遷移に起因するギャップをなくすことができる。なお、上記初期化処理には、映像音声デコーダ114に供給する映像の解像度およびフレームレート設定などの事前設定、映像音声デコーダ114のバッファの初期化などを含んでいる。
As described above, in the coded
また、上記のような機能を持たせるために符号化映像再生装置100に特別なハードウェアを付加する必要がないので、装置自体のコストアップを抑制できる。
Further, since it is not necessary to add special hardware to the encoded
また、静的解析部152は、ステップS103の映像ファイル再生処理を実行する前に、静的解析処理を実行し、完全にフレーム画像を復号可能なピクチャを開始点および終了点とするようにストリーム情報ファイル221のピクチャの並べ替えを行い、並べ替えた順に従ってAVバッファ112にアクセスユニット単位で保存するので、完全に復号化できない映像フレームを確実に除外することができ、映像ストリームの遷移時に、ブロックノイズなどが発生させることなく映像表示が可能となる。
In addition, the
また、出力映像音声制御部153は、プレイリスト情報160内に記録された開始点および終了点の属性情報に基づいて、映像シーンの繋ぎ目で、映像音声調整部115を制御することにより、急俊な映像輝度変化および音声出力レベル変化が起きないように、画質および音質の出力制御を行うので、映像ストリームの遷移時に、映像輝度および音声出力レベルが大きく変化することが抑制され、ユーザーにとって違和感のない映像シーンの切換えができる。
In addition, the output video/
この発明は詳細に説明されたが、上記した説明は、全ての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is illustrative in all aspects, and the present invention is not limited thereto. It is understood that innumerable variants not illustrated can be envisaged without departing from the scope of the invention.
なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。 It should be noted that the present invention can appropriately modify or omit the embodiments within the scope of the invention.
Claims (8)
前記ストリーム情報ファイルから、前記映像情報と前記音声情報とを分離し、それぞれアクセスユニット単位に分割するストリーム分離部と、
前記アクセスユニット単位に分割された、前記映像情報および前記音声情報を、それぞれの表示開始時刻と関連付けて記録するバッファと、
前記表示開始時刻に基づいて、前記映像情報および前記音声情報を前記バッファから読み出して復号するデコーダと、
前記バッファに対する前記表示開始時刻、前記映像情報および前記音声情報の記録の制御と、前記バッファから前記デコーダへの前記映像情報および前記音声情報の供給を制御するデータ供給制御部と、
前記データ供給制御部による前記バッファへの前記映像情報および前記音声情報の記録に先立って、前記ストリーム情報ファイルの最初のアクセスユニットと、最終のアクセスユニットのデータ解析を行う解析部を備え、
前記データ供給制御部は、
先行するストリーム情報ファイルの映像情報および音声情報の供給を終えると、前記先行するストリーム情報ファイルの最終のアクセスユニットの表示開始時刻を、後続するストリーム情報ファイルの映像情報および音声情報の供給に先立って、前記後続するストリーム情報ファイルの最初のアクセスユニットの表示開始時刻に再設定し、
前記解析部は、完全にフレーム画像を復号可能なアクセスユニットが前記最初のアクセスユニットおよび前記最終のアクセスユニットとなるように、アクセスユニットの並べ替えを行い、前記データ供給制御部は、並べ替えられた順に前記バッファに記録する、符号化映像再生装置。 A coded video playback device for playing back a stream information file in which coded video information and audio information are multiplexed,
A stream separation unit that separates the video information and the audio information from the stream information file and divides each into an access unit.
A buffer for recording the video information and the audio information divided in units of the access units in association with respective display start times,
A decoder for reading and decoding the video information and the audio information from the buffer based on the display start time;
A control of recording of the display start time to the buffer, the video information and the audio information, and a data supply control unit that controls supply of the video information and the audio information from the buffer to the decoder,
Prior to recording the video information and the audio information in the buffer by the data supply control unit, an analysis unit for performing data analysis of a first access unit of the stream information file and a final access unit is provided,
The data supply control unit,
When the supply of the video information and the audio information of the preceding stream information file is completed, the display start time of the last access unit of the preceding stream information file is set before the supply of the video information and the audio information of the succeeding stream information file. , Reset to the display start time of the first access unit of the subsequent stream information file ,
The analysis unit rearranges the access units so that the access units capable of completely decoding the frame image are the first access unit and the last access unit, and the data supply control unit rearranges them. A coded video reproducing device for recording in the buffer in the order of
前記解析部は、
前記ストリーム情報ファイルの前記最初のアクセスユニットを含む開始部分および、前記最終のアクセスユニットを含む終了部分の映像輝度および音声出力レベルを解析し、
前記映像音声調整部は、
前記先行するストリーム情報ファイルの前記終了部分と、前記後続するストリーム情報ファイルの前記開始部分において、前記映像輝度の差異および音声出力レベルの差異が、予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させる、請求項1記載の符号化映像再生装置。 A video/audio adjusting unit that receives the video information and the audio information decoded by the decoder and adjusts the video brightness and the output volume level of each is provided.
The analysis unit is
Analyzing video luminance and audio output level of a start portion including the first access unit and an end portion including the final access unit of the stream information file;
The video and audio adjustment unit,
If the difference in the video luminance and the difference in the audio output level between the end portion of the preceding stream information file and the start portion of the subsequent stream information file are larger than the predetermined difference, the predetermined The coded video reproduction device according to claim 1, wherein the video brightness and the audio output level are reduced so that the difference is within the difference.
前記先行するストリーム情報ファイルの前記最終のアクセスユニットと、前記後続するストリーム情報ファイルの前記最初のアクセスユニットにおいて、前記映像輝度の差異および前記音声出力レベルの差異が、前記予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させる、請求項2記載の符号化映像再生装置。 The video and audio adjustment unit,
The difference in the video luminance and the difference in the audio output level between the final access unit of the preceding stream information file and the first access unit of the subsequent stream information file are larger than the predetermined difference. In this case, the coded video reproduction device according to claim 2, wherein the video brightness and the audio output level are reduced so that the difference is within the predetermined difference.
前記後続するストリーム情報ファイルの前記開始部分は、前記最初のアクセスユニットと、それより後の複数の後続アクセスユニットを含み、
前記映像音声調整部は、
前記最終のアクセスユニットおよび前記複数の先行アクセスユニットにおける前記映像輝度および前記音声出力レベルのそれぞれの平均値と、
前記最初のアクセスユニットおよび前記複数の後続アクセスユニットにおける前記映像輝度および前記音声出力レベルのそれぞれの平均値との差異が、前記予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させる、請求項3記載の符号化映像再生装置。 The end portion of the preceding stream information file includes the final access unit and a plurality of preceding access units before it.
The start portion of the subsequent stream information file includes the first access unit and a plurality of subsequent access units after the first access unit,
The video and audio adjustment unit,
An average value of each of the video luminance and the audio output level in the final access unit and the plurality of preceding access units,
If the difference between the video access luminance and the average value of the audio output levels in the first access unit and the plurality of subsequent access units is larger than the predetermined difference, the difference is within the predetermined difference. The coded video reproduction device according to claim 3, wherein the video brightness and the audio output level are reduced as described above.
(a)前記ストリーム情報ファイルから、前記映像情報と前記音声情報とを分離するステップと
(b)前記映像情報および前記音声情報それぞれアクセスユニット単位に分割し、分割された、前記映像情報および前記音声情報を、それぞれの表示開始時刻と関連付けてバッファに記録するステップと、
(c)前記バッファから前記映像情報および前記音声情報を読み出してデコーダに供給するステップと、
(d)前記デコーダにおいて、前記表示開始時刻に基づいて、前記映像情報および前記音声情報を復号するステップと、を備え、
前記ステップ(d)の後に、
先行するストリーム情報ファイルの最終のアクセスユニットの表示開始時刻を、後続するストリーム情報ファイルの映像情報および音声情報の前記デコーダへの供給に先立って、前記後続するストリーム情報ファイルの最初のアクセスユニットの表示開始時刻に再設定するステップを備え、
前記ステップ(b)に先立って、
(e)前記ストリーム情報ファイルの最初のアクセスユニットと、最終のアクセスユニットのデータ解析を行うステップを備え、
前記ステップ(e)は、
完全にフレーム画像を復号可能なアクセスユニットが前記最初のアクセスユニットおよび前記最終のアクセスユニットとなるように、アクセスユニットの並べ替えを行うステップを含み、
前記ステップ(b)は、
前記ステップ(e)で並べ替えられた順に前記バッファに記録する、符号化映像再生方法。 A coded video reproduction method for reproducing a stream information file in which coded video information and audio information are multiplexed,
(A) separating the video information and the audio information from the stream information file, and (b) dividing the video information and the audio information into access unit units, and dividing the video information and the audio information. Recording information in a buffer in association with each display start time,
(C) reading the video information and the audio information from the buffer and supplying them to a decoder;
(D) decoding the video information and the audio information on the basis of the display start time in the decoder,
After step (d),
The display start time of the last access unit of the preceding stream information file is displayed before the supply of the video information and audio information of the following stream information file to the decoder. for example Bei the step of re-set to the start time,
Prior to the step (b),
(E) a step of performing data analysis of the first access unit and the last access unit of the stream information file,
The step (e) includes
Reordering the access units so that the access units capable of completely decoding the frame image are the first access unit and the final access unit,
The step (b) includes
A coded video reproducing method, wherein recording is performed in the buffer in the order rearranged in step (e).
(f)前記デコーダで復号された映像情報および音声情報を受け、それぞれの映像輝度および出力音量レベルの調整を行うステップを備え、
前記ステップ(e)は、
前記ストリーム情報ファイルの前記最初のアクセスユニットを含む開始部分および、前記最終のアクセスユニットを含む終了部分の映像輝度および音声出力レベルを解析するステップを含み、
前記ステップ(f)は、
前記先行するストリーム情報ファイルの前記終了部分と、前記後続するストリーム情報ファイルの前記開始部分において、前記映像輝度の差異および音声出力レベルの差異が、予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させるステップを含む、請求項5記載の符号化映像再生方法。 After step (d),
(F) a step of receiving video information and audio information decoded by the decoder and adjusting video luminance and output volume level of each,
The step (e) includes
Analyzing the video brightness and audio output level of a start portion including the first access unit and an end portion including the final access unit of the stream information file,
The step (f) includes
If the difference in the video luminance and the difference in the audio output level between the end portion of the preceding stream information file and the start portion of the subsequent stream information file are larger than the predetermined difference, the predetermined 6. The encoded video reproducing method according to claim 5 , further comprising the step of reducing the video luminance and the audio output level so that the difference is within the above difference.
前記先行するストリーム情報ファイルの前記最終のアクセスユニットと、前記後続するストリーム情報ファイルの前記最初のアクセスユニットにおいて、前記映像輝度の差異および前記音声出力レベルの差異が、前記予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させるステップを含む、請求項6記載の符号化映像再生方法。 The step (f) includes
The difference in the video luminance and the difference in the audio output level between the final access unit of the preceding stream information file and the first access unit of the subsequent stream information file are larger than the predetermined difference. In this case, the coded video reproducing method according to claim 6, further comprising the step of reducing the video luminance and the audio output level so that the difference is within the predetermined difference.
前記後続するストリーム情報ファイルの前記開始部分は、前記最初のアクセスユニットと、それより後の複数の後続アクセスユニットを含み、
前記ステップ(f)は、
前記最終のアクセスユニットおよび前記複数の先行アクセスユニットにおける前記映像輝度および前記音声出力レベルのそれぞれの平均値と、
前記最初のアクセスユニットおよび前記複数の後続アクセスユニットにおける前記映像輝度および前記音声出力レベルのそれぞれの平均値との差異が、前記予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させるステップを含む、請求項7記載の符号化映像再生方法。 The end portion of the preceding stream information file includes the final access unit and a plurality of preceding access units before it.
The start portion of the subsequent stream information file includes the first access unit and a plurality of subsequent access units after the first access unit,
The step (f) includes
An average value of each of the video luminance and the audio output level in the final access unit and the plurality of preceding access units,
If the difference between the video access luminance and the average value of the audio output levels in the first access unit and the plurality of subsequent access units is larger than the predetermined difference, the difference is within the predetermined difference. 8. The encoded video reproduction method according to claim 7, further comprising the step of reducing the video brightness and the audio output level.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/018464 WO2018211613A1 (en) | 2017-05-17 | 2017-05-17 | Encoded video reproduction device and encoded video reproduction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018211613A1 JPWO2018211613A1 (en) | 2019-11-07 |
JP6742515B2 true JP6742515B2 (en) | 2020-08-19 |
Family
ID=64274223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019518657A Active JP6742515B2 (en) | 2017-05-17 | 2017-05-17 | CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6742515B2 (en) |
WO (1) | WO2018211613A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021002338A1 (en) * | 2019-07-03 | 2021-01-07 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04345285A (en) * | 1991-05-22 | 1992-12-01 | Fuji Xerox Co Ltd | Device and method for editing moving image |
JP2005302100A (en) * | 2004-04-08 | 2005-10-27 | Sony Corp | Information reproducing device, information reproducing method, and information reproducing program |
JP4438059B2 (en) * | 2004-08-24 | 2010-03-24 | キヤノン株式会社 | Image reproducing apparatus and control method thereof |
JP4704972B2 (en) * | 2006-07-24 | 2011-06-22 | ルネサスエレクトロニクス株式会社 | Stream editing method and stream editing apparatus |
JP2009290768A (en) * | 2008-05-30 | 2009-12-10 | Toshiba Corp | Video processing apparatus and video processing method |
JP5687867B2 (en) * | 2010-08-23 | 2015-03-25 | Necパーソナルコンピュータ株式会社 | Information processing apparatus, moving image file editing method, and program |
JP6049410B2 (en) * | 2012-11-09 | 2016-12-21 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2014239524A (en) * | 2014-08-08 | 2014-12-18 | ヤマハ株式会社 | Method for compressing moving image composed of a plurality of consecutive frames, and image processing device for performing compression encoding on moving image composed of a plurality of consecutive frames |
-
2017
- 2017-05-17 WO PCT/JP2017/018464 patent/WO2018211613A1/en active Application Filing
- 2017-05-17 JP JP2019518657A patent/JP6742515B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2018211613A1 (en) | 2019-11-07 |
WO2018211613A1 (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TW200412801A (en) | Display of closed captioned information during video trick modes | |
JP6647162B2 (en) | Video recording device, video reproducing device, recording method, and reproducing method | |
JP4577409B2 (en) | Playback apparatus, playback method, program, and data structure | |
CN107736017B (en) | Video playback device and video playback method | |
JP4296676B2 (en) | Image recording apparatus and method, image reproducing apparatus and method, and recording medium | |
JP6742515B2 (en) | CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD | |
JP2006340066A (en) | Moving image encoder, moving image encoding method and recording and reproducing method | |
US6999090B2 (en) | Data processing apparatus, data processing method, information storing medium, and computer program | |
JP4852453B2 (en) | Recording apparatus, video reproduction apparatus, and special reproduction method thereof | |
JP4464255B2 (en) | Video signal multiplexing apparatus, video signal multiplexing method, and video reproduction apparatus | |
KR100535296B1 (en) | How and how to reproduce the original data of digitally encoded video film | |
JP4225339B2 (en) | Image data processing apparatus and method, program, and recording medium | |
JP2002010254A (en) | Feature point detection method and record reproduction device | |
JP4763589B2 (en) | Playback device and playback method thereof | |
JP7435704B2 (en) | Playback device, playback method, program, information processing system | |
JP6976219B2 (en) | Video recording / playback device and video recording / playback method | |
US20150255119A1 (en) | Display apparatus and method for editing and displaying recorded video content | |
JP2021166363A (en) | Video reproduction device and video reproduction method | |
JP4288442B2 (en) | Recording / reproducing apparatus and video processing method | |
JP4441572B2 (en) | Recording device | |
JP2020198560A (en) | Video recording/playback device and video recording/playback method | |
JP2021052302A (en) | Picture reproduction device and picture reproduction method | |
JP2001268513A (en) | Moving image reproducing device and moving image recording/reproducing system | |
JP5132789B2 (en) | Video encoding apparatus and method | |
JP2010103795A (en) | Image recording apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190510 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190510 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6742515 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |