JP6742515B2 - CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD - Google Patents

CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD Download PDF

Info

Publication number
JP6742515B2
JP6742515B2 JP2019518657A JP2019518657A JP6742515B2 JP 6742515 B2 JP6742515 B2 JP 6742515B2 JP 2019518657 A JP2019518657 A JP 2019518657A JP 2019518657 A JP2019518657 A JP 2019518657A JP 6742515 B2 JP6742515 B2 JP 6742515B2
Authority
JP
Japan
Prior art keywords
video
information
audio
access unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019518657A
Other languages
Japanese (ja)
Other versions
JPWO2018211613A1 (en
Inventor
島田 昌明
昌明 島田
礼治 大塚
礼治 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018211613A1 publication Critical patent/JPWO2018211613A1/en
Application granted granted Critical
Publication of JP6742515B2 publication Critical patent/JP6742515B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/926Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback by pulse code modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof

Description

本発明は、SDカード、光ディスク等の情報記録媒体に記録された符号化映像の再生装置に関する。 The present invention relates to a reproducing apparatus for coded video recorded on an information recording medium such as an SD card and an optical disc.

近年、広告媒体として、画像表示装置の画面に動画映像を表示する電子広告(デジタルサイネージ)が普及している。デジタルサイネージに使用される画像表示装置としては、高性能なプロセッサを搭載したPC(パーソナルコンピュータ)を使用することが多いが、コスト、信頼性、および耐環境性などの観点からは、電子広告表示機能が組み込まれた専用の画像表示装置(組み込み機器)の適用が望ましい。しかし、一般的に組み込み機器では、プロセッサ性能、メモリサイズなどが制限されていることに加え、符号化映像を復号化するAVデコーダはハードウェアでの実装となるため、操作制約が厳しく復号処理の自由度が少ないといった問題がある。 2. Description of the Related Art In recent years, electronic advertisements (digital signage) that display moving image on a screen of an image display device have become popular as advertisement media. A PC (personal computer) equipped with a high-performance processor is often used as an image display device used for digital signage, but from the viewpoint of cost, reliability, environment resistance, etc., electronic advertisement display It is desirable to apply a dedicated image display device (embedded device) with built-in functions. However, in general, embedded devices are limited in processor performance, memory size, and the like, and since an AV decoder that decodes encoded video is mounted in hardware, operation restrictions are severe and decoding processing is difficult. There is a problem that the degree of freedom is low.

デジタルサイネージの一形態として、可搬性記録媒体に保存された符号化映像をループ再生で表示する形態が広く用いられている。しかしながら複数の映像ストリームを順次再生する場合、映像ストリーム自体に記録されている映像フレーム単位での表示時間に従って表示制御を行う必要があるため、映像ストリーム毎にAVデコーダの初期化処理が必要となっていた。AVデコーダの初期化処理とは、AVデコーダに供給する映像の解像度およびフレームレート設定などの事前設定、AVデコーダのバッファの初期化処理などを含んでいる。 As one form of digital signage, a form in which coded images stored in a portable recording medium are displayed by loop reproduction is widely used. However, when sequentially reproducing a plurality of video streams, it is necessary to perform display control in accordance with the display time in video frame units recorded in the video stream itself, and thus initialization processing of the AV decoder is required for each video stream. Was there. The initialization processing of the AV decoder includes presetting of the resolution and frame rate of the video supplied to the AV decoder, initialization processing of the buffer of the AV decoder, and the like.

また、映像ストリームの多重化フォーマットが変更される際にも初期化処理が必要となることが多い。このような初期化処理に必要となる時間が、映像ストリームの切換えに際して、黒画像表示期間となるような映像間のギャップを生じさせる原因となっていた。デジタルサイネージでは、ギャップに起因する映像を表示しない待ち時間の発生は映像表示時間の機会損失につながるため、非常に問題視されている。また、シーン切換え時に、映像輝度および音声出力レベルが大きく異なると、ユーザーにとって違和感を生じさせ、不快となるといった問題があった。 Further, initialization processing is often required even when the multiplexing format of the video stream is changed. The time required for such an initialization process causes a gap between images which is a black image display period when the video stream is switched. In digital signage, the occurrence of a waiting time for not displaying an image due to a gap leads to a loss of an opportunity for displaying an image, which is regarded as a very problem. Further, if the video brightness and the audio output level are greatly different at the time of scene switching, there is a problem that the user feels uncomfortable and is uncomfortable.

このような問題を解決する1つの手段として、例えば、特許文献1に開示されるように、映像および音声の繋ぎ目をオーバーラップさせる映像音声情報を別途作成し、自然な映像シーンの切換えが視聴できる映像編集装置が知られている。 As one means for solving such a problem, for example, as disclosed in Patent Document 1, video/audio information that overlaps a joint between video and audio is separately created, and natural video scene switching is viewed. There is known a video editing device that can do this.

特開平7−23329号公報JP, 7-23329, A

先行文献1に開示される従来技術では、映像シーンの繋ぎ目付近の映像音声を一時的に記録しておき、オーバーラップさせる映像音声をオフラインで別途作成している。この方式は汎用コンピュータのような高速処理が可能な性能のプロセッサを持つ場合に有用な方法であり、組み込み機器で映像シーンの合成処理を行うとCPU(Control Processing Unit)の負荷が高くなり、多くの処理時間を必要とするため実用的ではない。 In the conventional technique disclosed in the prior art document 1, the video and audio in the vicinity of the joint between the video scenes are temporarily recorded, and the video and audio to be overlapped are separately created offline. This method is useful when there is a processor capable of high-speed processing, such as a general-purpose computer, and when the processing of synthesizing video scenes is performed by an embedded device, the load on the CPU (Control Processing Unit) increases and Is not practical because it requires processing time.

また、一般的には、組み込み機器に搭載されているAVデコーダは、映像ファイルの単位毎に再生処理を行うのが一般的となっており、再生処理毎に初期化処理を行う必要があり、ギャップを生じることなくループ再生を行うことができないといった問題がある。 In general, an AV decoder installed in an embedded device generally performs a reproduction process for each video file unit, and it is necessary to perform an initialization process for each reproduction process. There is a problem that loop reproduction cannot be performed without creating a gap.

本発明は上記のような問題を解決するためになされたものであり、映像ファイルを順次再生した場合に、映像ストリームの切換えに際して、ギャップを生じさせず、連続的に映像表示を行うことが可能な符号化映像再生装置を提供することを目的とする。 The present invention has been made to solve the above problems, and when video files are sequentially played back, it is possible to continuously display video without creating a gap when switching video streams. Another object of the present invention is to provide a coded video reproduction device.

本発明に係る符号化映像再生装置は、符号化された映像情報と音声情報とが多重化されたストリーム情報ファイルを再生する符号化映像再生装置であって、前記ストリーム情報ファイルから、前記映像情報と前記音声情報とを分離し、それぞれアクセスユニット単位に分割するストリーム分離部と、前記アクセスユニット単位に分割された、前記映像情報および前記音声情報を、それぞれの表示開始時刻と関連付けて記録するバッファと、前記表示開始時刻に基づいて、前記映像情報および前記音声情報を前記バッファから読み出して復号するデコーダと、前記バッファに対する前記表示開始時刻、前記映像情報および前記音声情報の記録の制御と、前記バッファから前記デコーダへの前記映像情報および前記音声情報の供給を制御するデータ供給制御部と、前記データ供給制御部による前記バッファへの前記映像情報および前記音声情報の記録に先立って、前記ストリーム情報ファイルの最初のアクセスユニットと、最終のアクセスユニットのデータ解析を行う解析部を備え、前記データ供給制御部は、先行するストリーム情報ファイルの映像情報および音声情報の供給を終えると、前記先行するストリーム情報ファイルの最終のアクセスユニットの表示開始時刻を、後続するストリーム情報ファイルの映像情報および音声情報の供給に先立って、前記後続するストリーム情報ファイルの最初のアクセスユニットの表示開始時刻に再設定し、前記解析部は、完全にフレーム画像を復号可能なアクセスユニットが前記最初のアクセスユニットおよび前記最終のアクセスユニットとなるように、アクセスユニットの並べ替えを行い、前記データ供給制御部は、並べ替えられた順に前記バッファに記録する。
An encoded video reproduction device according to the present invention is an encoded video reproduction device for reproducing a stream information file in which encoded video information and audio information are multiplexed, and the video information is reproduced from the stream information file. And a stream separation unit that separates the audio information into access units, and a buffer that records the video information and the audio information divided into access units in association with respective display start times. A decoder for reading and decoding the video information and the audio information from the buffer based on the display start time; a control for recording the display start time, the video information and the audio information in the buffer; A data supply control unit that controls the supply of the video information and the audio information from a buffer to the decoder, and the stream information prior to the recording of the video information and the audio information in the buffer by the data supply control unit. The data access control unit includes an analysis unit that analyzes the data of the first access unit and the last access unit of the file. The display start time of the last access unit of the information file is reset to the display start time of the first access unit of the subsequent stream information file prior to the supply of the video information and audio information of the subsequent stream information file , The analysis unit rearranges the access units so that the access units capable of completely decoding the frame image are the first access unit and the last access unit, and the data supply control unit rearranges them. The data is recorded in the buffer in the order described above .

本発明に係る符号化映像再生装置によれば、映像ストリームの切換えに際して、映像間にギャップを生じさせず、連続的に映像表示を行うことが可能となる。 According to the coded video playback device of the present invention, it is possible to continuously display video without causing a gap between videos when switching video streams.

本発明に係る符号化映像再生装置のシステム構成を示す機能ブロック図である。It is a functional block diagram showing the system configuration of the coded video reproducing device according to the present invention. SDカードの論理ファイル構造を示す模式図である。It is a schematic diagram which shows the logical file structure of an SD card. 再生制御情報ファイルのシンタックスを説明する図である。It is a figure explaining the syntax of a reproduction control information file. 符号化圧縮映像ファイルの蓄積順配列と表示順配列の関係を説明する模式図である。It is a schematic diagram explaining the relationship between the storage order arrangement|sequence of a coded compressed video file, and a display order arrangement|sequence. プレイリスト情報のシンタックスを説明する図である。It is a figure explaining the syntax of playlist information. 符号化映像情報および符号化音声情報の保存形態を説明する図である。It is a figure explaining the preservation|save form of encoded video information and encoded audio information. 映像表示とデータ供給のタイミングを示す図である。It is a figure which shows the timing of image display and data supply. ストリーム情報ファイルを再生する場合についての、映像輝度および音声出力レベルの調整を説明する図である。It is a figure explaining adjustment of image brightness and an audio output level in the case of reproducing a stream information file. 本発明に係る符号化映像再生装置における全体動作を説明する図である。It is a figure explaining the whole operation|movement in the coded video reproducing apparatus which concerns on this invention. 静的解析処理の動作を示すフローチャートである。It is a flow chart which shows operation of static analysis processing. ファイル再生処理の動作を示すフローチャートである。It is a flow chart which shows operation of file reproduction processing.

<実施の形態>
<装置構成>
図1は、本発明に係る実施の形態の符号化映像再生装置100のシステム構成を示す機能ブロック図である。
<Embodiment>
<Device configuration>
FIG. 1 is a functional block diagram showing a system configuration of a coded video reproduction device 100 according to an embodiment of the present invention.

図1に示すように符号化映像再生装置100は、システム制御部101、再生ドライバ102、ストリーム制御部110、映像音声デコーダ114(デコーダ)、映像音声調整部115およびメモリ120を備えており、再生ドライバ102、ストリーム制御部110、映像音声デコーダ114および映像音声調整部115はデコーダブロック119を構成している。デコーダブロック119は、システム制御部101からのデコーダ制御信号に基づいてストリーム情報の再生処理を行う。 As shown in FIG. 1, the coded video playback device 100 includes a system control unit 101, a playback driver 102, a stream control unit 110, a video/audio decoder 114 (decoder), a video/audio adjustment unit 115, and a memory 120, and plays back. The driver 102, the stream control unit 110, the video/audio decoder 114, and the video/audio adjusting unit 115 form a decoder block 119. The decoder block 119 performs a reproduction process of stream information based on a decoder control signal from the system control unit 101.

符号化映像再生装置100は、操作部130を介してユーザー等からの要求を受け付け、SDカード140に記録されている映像ファイル等を読み出して再生し、液晶表示装置等の表示装置116に表示する。一般的に操作部130は、符号化映像再生装置100のフロントパネルに配置されている操作パネル、リモートコントローラなどの入力機器を指す。 The encoded video reproduction device 100 receives a request from a user or the like via the operation unit 130, reads out a video file or the like recorded in the SD card 140, reproduces it, and displays it on a display device 116 such as a liquid crystal display device. .. Generally, the operation unit 130 refers to an input device such as an operation panel or a remote controller arranged on the front panel of the encoded video reproduction device 100.

システム制御部101は、符号化映像再生装置100全体を統合制御し、操作部130を介して与えられた命令の内容を解釈し、デコーダブロック119を制御することで任意のストリーム情報を再生する。例えば、再生ドライバ102を制御してSDカード140等の情報記録媒体から情報を読み出し、再生する。 The system control unit 101 performs integrated control of the entire encoded video reproduction device 100, interprets the content of the instruction given via the operation unit 130, and controls the decoder block 119 to reproduce arbitrary stream information. For example, the reproduction driver 102 is controlled to read information from an information recording medium such as the SD card 140 and reproduce it.

SDカード140には、後述する符号化映像情報と符号化音声情報が多重化されたストリーム情報、および当該ストリーム情報の再生制御情報が記録されている。再生制御情報とは、ストリーム情報から分離した符号化映像および音声ストリームに関する映像および音声の属性情報、ストリーム情報のアクセス単位、通常はGOP(Group of Picture)単位で再生開始時間情報と再生開始位置情報の対応関係を示す情報などを含んでいる。 The SD card 140 records stream information in which coded video information and coded audio information, which will be described later, are multiplexed, and reproduction control information of the stream information. The reproduction control information includes video and audio attribute information about encoded video and audio streams separated from stream information, access unit of stream information, usually reproduction start time information and reproduction start position information in GOP (Group of Picture) units. It includes information indicating the correspondence relationship of.

また、ストリーム情報としては、MPEG(Moving Picture Experts Group)−2 TS(Transport Stream)フォーマット、MP4フォーマット、WMV(Windows Media Video)フォーマットに対応する情報を含んでいる(Windowsは登録商標)。 The stream information includes information corresponding to MPEG (Moving Picture Experts Group)-2 TS (Transport Stream) format, MP4 format, and WMV (Windows Media Video) format (Windows is a registered trademark).

MP4フォーマットおよびWMVフォーマットで多重化されたストリーム情報ファイルは、ファイル内部に再生制御情報を保持している。一方、MPEG−2 TSフォーマットは当該再生制御情報をストリーム情報ファイル内に保持していないため、当該ストリーム情報ファイルに関連付けられた再生制御情報ファイルを別途に保持している。 The stream information file multiplexed in the MP4 format and the WMV format holds the reproduction control information inside the file. On the other hand, since the MPEG-2 TS format does not hold the playback control information in the stream information file, it separately holds the playback control information file associated with the stream information file.

ストリーム制御部110は、システム全体のストリームの流れを統括制御し、ストリーム制御部110内には、ストリーム分離部111およびAVバッファ112(バッファ)を有している。再生ドライバ102がSDカード140から読み出したストリーム情報ファイルには、符号化映像情報と符号化音声情報が多重化されており、ストリーム分離部111で、符号化映像情報と符号化音声情報に分離され、AVバッファ112に保存される。 The stream control unit 110 centrally controls the stream flow of the entire system, and the stream control unit 110 includes a stream separation unit 111 and an AV buffer 112 (buffer). In the stream information file read from the SD card 140 by the reproduction driver 102, the encoded video information and the encoded audio information are multiplexed, and the stream separation unit 111 separates the encoded video information and the encoded audio information. , Are stored in the AV buffer 112.

映像音声デコーダ114は、MPEG−2などで符号化された符号化映像情報を復号化処理して映像情報に復号すると共に、AC(Audio Coding number)−3などで符号化された符号化音声情報を復号化処理して音声情報に復号する。 The video/audio decoder 114 performs a decoding process on the coded video information coded by MPEG-2 or the like to decode the video information, and also coded audio information coded by AC (Audio Coding number)-3 or the like. Is decoded into audio information.

映像音声調整部115は、映像音声デコーダ114から出力される映像情報および音声情報を受け、それぞれ映像画質調整および出力音量レベル調整を行って、出力映像信号および出力音声信号として表示装置116に出力する。 The video/audio adjustment unit 115 receives the video information and the audio information output from the video/audio decoder 114, performs video image quality adjustment and output volume level adjustment, respectively, and outputs them to the display device 116 as an output video signal and an output audio signal. ..

システム制御部101内には、データ供給制御部151、静的解析部152(解析部)および出力映像音声制御部153を有している。 The system control unit 101 has a data supply control unit 151, a static analysis unit 152 (analysis unit), and an output video/audio control unit 153.

データ供給制御部151は、メモリ120から読み出したプレイリスト情報160に基づいて、再生ドライバ102から映像ストリーム情報を読み出すようにストリーム制御部110を制御し、ストリーム分離部111で分離された符号化映像情報および符号化音声情報をAVバッファ112にアクセスユニット単位で保存するようにストリーム分離部111を制御する。 The data supply control unit 151 controls the stream control unit 110 to read the video stream information from the reproduction driver 102 based on the playlist information 160 read from the memory 120, and the encoded video separated by the stream separation unit 111. The stream separation unit 111 is controlled so that the information and the encoded audio information are stored in the AV buffer 112 in access unit units.

プレイリスト情報160は、SDカード140に記録されている映像ファイルをどのような順番で再生するかを示す情報であり、再生対象のファイル名、再生開始時刻と再生終了時刻、開始点および終了点近傍の解析情報などが保存されている。 The playlist information 160 is information indicating in what order the video files recorded on the SD card 140 are to be played back, and the file name of the playback target, playback start time and playback end time, start point and end point. The analysis information of the neighborhood is saved.

静的解析部152は、ストリーム情報ファイルの再生開始時刻と再生終了時刻の近傍の、例えば符号化圧縮単位の0.5秒間の映像情報および音声情報を解析し、プレイリスト情報160の開始点および終了点の属性情報として記録する。 The static analysis unit 152 analyzes the video information and the audio information in the vicinity of the reproduction start time and the reproduction end time of the stream information file, for example, for 0.5 seconds in the encoding compression unit, and determines the start point of the playlist information 160 and Record as end point attribute information.

出力映像音声制御部153は、プレイリスト情報160内に記録される開始点および終了点の属性情報に基づいて、映像音声調整部115を制御する。 The output video/audio control unit 153 controls the video/audio adjustment unit 115 based on the attribute information of the start point and the end point recorded in the playlist information 160.

なお、データ供給制御部151、静的解析部152および出力映像音声制御部153の各機能は、システム制御部101内に組み込まれたファームウェアなどで実現しても良いが、同様の機能を有するハードウェアで実現しても構わない。また、データ供給制御部151、静的解析部152および出力映像音声制御部153は、それぞれ別個の構成として示しているが、それぞれの機能が統合された1つの構成としても構わない。 Each function of the data supply control unit 151, the static analysis unit 152, and the output video/audio control unit 153 may be realized by firmware or the like incorporated in the system control unit 101, but a hardware having similar functions. It may be realized by wear. Further, although the data supply control unit 151, the static analysis unit 152, and the output video/audio control unit 153 are shown as separate configurations, they may have a single configuration in which their respective functions are integrated.

また、同様にストリーム制御部110内のストリーム分離部111およびAVバッファ112の各機能は、ストリーム制御部110内に組み込まれたファームウェアなどで実現しても良いが、同様の機能を有するハードウェアで実現しても構わない。 Similarly, the functions of the stream separation unit 111 and the AV buffer 112 in the stream control unit 110 may be realized by firmware or the like incorporated in the stream control unit 110, but hardware having similar functions may be used. You can realize it.

<復号処理の流れ>
次に、符号化映像再生装置100における復号処理の流れについて説明する。再生ドライバ102がSDカード140から読み出したストリーム情報ファイルを再生する場合、システム制御部101はストリーム制御部110を制御して予めSDカード140から再生対象のストリーム情報ファイルに関連する再生制御情報を読み出しておく。システム制御部101は、読み出した再生制御情報をメモリ120に保持し、必要に応じて読み出す。システム制御部101は、メモリ120から読み出した再生制御情報に基づいて、制御統括下にある各部に対して再生準備を行うよう指示する。
<Decoding process flow>
Next, the flow of the decoding process in the encoded video reproducing device 100 will be described. When the reproduction driver 102 reproduces the stream information file read from the SD card 140, the system control unit 101 controls the stream control unit 110 to read the reproduction control information related to the stream information file to be reproduced from the SD card 140 in advance. Keep it. The system control unit 101 holds the read reproduction control information in the memory 120, and reads it as necessary. Based on the reproduction control information read from the memory 120, the system control unit 101 instructs each unit under control control to prepare for reproduction.

再生ドライバ102がSDカード140から読み出したストリーム情報ファイルは、ストリーム制御部110に入力され、ストリーム分離部111で符号化映像情報と符号化音声情報に分離される。 The stream information file read from the SD card 140 by the reproduction driver 102 is input to the stream control unit 110, and is separated by the stream separation unit 111 into encoded video information and encoded audio information.

その後、ストリーム分離部111は、符号化映像情報および符号化音声情報をアクセスユニット毎に分割し、AVバッファ112にアクセスユニット単位で保存する。なお、アクセスユニットとは符号化映像情報および符号化音声情報で取扱う複数のデータの処理単位であり、符号化映像情報では1フレーム単位、符号化音声情報では所定時間(例えば、0.1秒)単位のデータでアクセスユニットが形成される。 After that, the stream separation unit 111 divides the coded video information and the coded audio information into access units, and stores them in the AV buffer 112 in access unit units. The access unit is a unit of processing of a plurality of data handled in the coded video information and the coded audio information. The coded video information is one frame unit and the coded audio information is a predetermined time (for example, 0.1 seconds). An access unit is formed by unit data.

AVバッファ112に記録されたアクセスユニット情報は、順次、映像音声デコーダ114に供給される。映像音声デコーダ114では、符号化映像情報を復号化処理して映像情報に復号し、符号化声情報を復号化処理して音声情報に復号する。 The access unit information recorded in the AV buffer 112 is sequentially supplied to the video/audio decoder 114. The video/audio decoder 114 decodes the coded video information into video information and decodes the coded voice information into audio information.

復号された映像情報および音声情報は映像音声調整部115に入力され、映像画面全体のブライトネス、シャープネスなどの映像画質調整を行うと共に、出力音量レベル調整を行って出力映像信号および出力音声信号とし、表示装置116に出力する。 The decoded video information and audio information are input to the video/audio adjustment unit 115, and the video image quality adjustment such as the brightness and sharpness of the entire video screen is performed, and the output volume level adjustment is performed as the output video signal and the output audio signal. Output to the display device 116.

表示装置116では、入力された出力映像信号に基づいた画像を表示し、また、出力音声信号に基づいた音をスピーカーを介して放音し、視聴に供する。 The display device 116 displays an image based on the input output video signal, and emits sound based on the output audio signal through a speaker for viewing.

<システム制御部による制御>
本発明に係る符号化映像再生装置100においては、システム制御部101による制御に特徴を有している。すなわち、データ供給制御部151がAVバッファ112にデータを保存するのに先立って、静的解析部152がストリーム情報ファイル221のデータ解析を行い、完全にフレーム画像を復号可能なピクチャを開始点および終了点とするように並べ替えを行う。
<Control by system controller>
The encoded video reproduction device 100 according to the present invention is characterized by the control by the system control unit 101. That is, before the data supply control unit 151 stores the data in the AV buffer 112, the static analysis unit 152 analyzes the data of the stream information file 221, and the start point of the picture that can completely decode the frame image is set as the start point. Sort so that the end point is reached.

また、静的解析部152では、ストリーム情報ファイルの再生開始時刻と再生終了時刻の近傍の、例えば符号化圧縮単位の0.5秒間の映像情報および音声情報を予め解析し、映像情報の輝度分布、最終映像フレームの輝度を取得し、また、音声情報の音量レベル分布、最終音声アクセスユニットの音量レベルを取得し、プレイリスト情報160内に開始点および終了点の属性情報として記録する。 Further, the static analysis unit 152 previously analyzes video information and audio information in the vicinity of the reproduction start time and the reproduction end time of the stream information file, for example, for 0.5 seconds in the encoding compression unit, and calculates the luminance distribution of the video information. , The brightness of the final video frame, the volume level distribution of the audio information, and the volume level of the final audio access unit are acquired and recorded in the playlist information 160 as attribute information of the start point and the end point.

出力映像音声制御部153は、プレイリスト情報160内に記録された開始点および終了点の属性情報に基づいて、映像シーンの繋ぎ目で、映像音声調整部115を制御することにより、急俊な映像輝度変化および音声出力レベル変化が起きないように、画質および音質の出力制御を行う。これにより、映像シーンの切換え点において、映像輝度および音声出力レベルが大きく変化しても、ユーザーにとって違和感のない映像シーンの切換えができる。 The output video/audio control unit 153 controls the video/audio adjustment unit 115 at the seam of the video scenes based on the attribute information of the start point and the end point recorded in the playlist information 160, so that the output video/audio control unit 153 operates rapidly. Output control of image quality and sound quality is performed so that changes in image brightness and changes in audio output level do not occur. As a result, even if the video brightness and the audio output level greatly change at the video scene switching point, the video scene can be switched without causing any discomfort to the user.

<SDカードの論理ファイル構造>
図2は、SDカード140の論理ファイル構造を示す模式図である。ルートディレクトリ200は、論理的に階層構造を成すファイル構造の最上位階層のディレクトリ構造である。ルートディレクトリ200は、SDカード140に記録されているコンテンツ管理情報である再生制御情報ファイル211をまとめて記録したフォルダである再生制御情報ディレクトリ210と、ストリーム情報ファイル221をまとめて記録したフォルダであるストリーム管理ディレクトリ220とを有している。なお、再生制御情報ディレクトリ210が構築される記憶領域を再生制御情報領域と呼称し、ストリーム管理ディレクトリ220が構築される記憶領域をストリーム情報領域と呼称する。
<SD card logical file structure>
FIG. 2 is a schematic diagram showing the logical file structure of the SD card 140. The root directory 200 is a directory structure at the highest level of a file structure that logically forms a hierarchical structure. The root directory 200 is a folder in which the reproduction control information file 210, which is the content management information recorded in the SD card 140, is collectively recorded, and a stream information file 221 is collectively recorded in the folder. It has a stream management directory 220. A storage area in which the reproduction control information directory 210 is constructed is called a reproduction control information area, and a storage area in which the stream management directory 220 is constructed is called a stream information area.

図2において、再生制御情報ファイル211およびストリーム情報ファイル221は、5桁のファイル名により記録され、一対一で対応付けされている。ファイル名は5桁の数字であれば良く、連番である必要はない。また、MP4フォーマットとWMVフォーマットに関しては、ストリーム情報ファイル221内に再生制御情報を含むため、個別に対応した再生制御情報ファイル211を設ける必要はない。 In FIG. 2, the reproduction control information file 211 and the stream information file 221 are recorded by a 5-digit file name and are associated with each other on a one-to-one basis. The file name need only be a 5-digit number, and need not be a serial number. Further, regarding the MP4 format and the WMV format, since the reproduction control information is included in the stream information file 221, it is not necessary to provide the corresponding reproduction control information file 211.

なお、図2では、再生制御情報ファイル211とストリーム情報ファイル221は個別のディレクトリ内に配置する例を示したが、同一のディレクトリ内に配置しても良いし、これらのファイルがルートディレクトリ200に直接配置されていても構わない。また、再生制御情報ファイル211とストリーム情報ファイル221は、一対一で対応付けされているものとしたが、再生制御情報ファイル211に、対応するストリーム情報ファイル221がまとめて記録されていても構わない。 Although FIG. 2 shows an example in which the reproduction control information file 211 and the stream information file 221 are arranged in separate directories, they may be arranged in the same directory, or these files may be arranged in the root directory 200. It may be placed directly. Further, the reproduction control information file 211 and the stream information file 221 are associated with each other one-to-one, but the corresponding stream information file 221 may be collectively recorded in the reproduction control information file 211. ..

<再生制御情報ファイルのシンタックス>
図3は、再生制御情報ファイル211におけるシンタックスを説明する図である。「Start_PTS301」は対象となるストリーム情報ファイル221の最初のアクセスユニットの表示開始時刻を意味するPTS(Presentation Time Stamp)を示し、「End_PTS302」は最終のアクセスユニットの表示開始時刻を意味するPTSを示す。
<Syntax of playback control information file>
FIG. 3 is a diagram for explaining the syntax in the reproduction control information file 211. "Start_PTS301" indicates a PTS (Presentation Time Stamp) meaning the display start time of the first access unit of the target stream information file 221, and "End_PTS302" indicates the PTS meaning the display start time of the last access unit. ..

「属性情報管理テーブル310」には、ストリーム情報ファイル221の映像属性情報(解像度、ビットレート、フレームレート、HDR対応の有無)および音声属性情報(チャンネル数、サンプリングレート)、著作権保護に規定される暗号化の必要性情報、MPEG−TS方式かMPEG−PS(Program Stream)方式か、映像と音声を分離するためのパケット識別子などの多重化方式情報などの情報が記録されている。 The "attribute information management table 310" defines video attribute information (resolution, bit rate, frame rate, whether or not HDR is supported) of the stream information file 221, audio attribute information (number of channels, sampling rate), and copyright protection. Necessity information of encryption, information such as MPEG-TS method or MPEG-PS (Program Stream) method, and multiplexing method information such as a packet identifier for separating video and audio are recorded.

「アクセスポイント管理テーブル320」には、頭出し再生に必要となる情報が記録されている。例えば映像データがMPEG−2のビデオストリームでエンコードされている場合、GOP(Group of Picture)の先頭が、アクセスポイントに相当する。本実施の形態ではストリーム情報ファイル221のどのパケットに、GOPの先頭が存在するかが頭出し再生に必要となる情報として記録されている。 In the "access point management table 320", information necessary for cue reproduction is recorded. For example, when the video data is encoded by a video stream of MPEG-2, the head of GOP (Group of Picture) corresponds to the access point. In the present embodiment, which packet of the stream information file 221 contains the head of the GOP is recorded as information necessary for the cue reproduction.

「アクセスポイント管理テーブル320」の「num_of_entry321」は、アクセスポイントの総数を示し、「num_of_entry321」の1つ下の行にあるループ文(for以下)は、「num_of_entry321」の数だけ繰り返される。 The “num_of_entry 321” of the “access point management table 320” indicates the total number of access points, and the loop statement (for or less) in the line immediately below the “num_of_entry 321” is repeated by the number of “num_of_entry 321”.

「PTS_GOP_Start331」は、アクセスポイントの表示開始PTSを示し、「SPN_GOP_Start332」はストリーム情報ファイル221の先頭からアクセスポイントの先頭までの相対パケット数である。パケットは固定長であることから、ストリーム情報ファイル221の先頭からアクセスポイント先頭までの相対バイト数は、「SPN_GOP_Start332」の値とパケット当たりのバイト数を掛け合せた値で算出できる。符号化映像再生装置100は、ストリーム情報ファイル221の先頭からのバイト数から、ディスク上のアクセスポイントの位置を割り出し、頭出し再生を行う。PTS_GOP_Start 331” indicates the display start PTS of the access point, and “SPN_GOP_Start 332” is the number of relative packets from the head of the stream information file 221 to the head of the access point. Since the packet has a fixed length, the relative number of bytes from the beginning of the stream information file 221 to the beginning of the access point can be calculated by multiplying the value of “SPN_GOP_Start 332” by the number of bytes per packet. The encoded video reproducing device 100 determines the position of the access point on the disc from the number of bytes from the beginning of the stream information file 221, and performs cue reproduction.

<ピクチャの並べ替え>
図4は、符号化圧縮映像ファイルの蓄積順配列と表示順配列の関係を説明する模式図である。ストリーム情報ファイル221は、蓄積順配列401に示されるように、蓄積フレーム順に記録されるが、本実施の形では、再生開始前に、静的解析部152がストリーム情報ファイル221のデータ解析を静的に行い表示順配列402のように並べ替えを行う。
<Picture rearrangement>
FIG. 4 is a schematic diagram illustrating the relationship between the storage order array and the display order array of the encoded compressed video file. The stream information file 221 is recorded in the order of accumulated frames as shown in the accumulation order array 401. However, in the present embodiment, the static analysis unit 152 performs the data analysis of the stream information file 221 before starting the reproduction. The display order array 402 is rearranged.

すなわち、符号化圧縮単位であるGOPは、フレーム内でデータ圧縮されたIピクチャ(I)と、時間的に前方向のIピクチャまたはPピクチャによる動き補償を加えてデータ圧縮されたPピクチャ(P)と、時間的に前後方向のIピクチャおよびPピクチャによる動き補償を加えてデータ圧縮されたBピクチャ(B)とで構成されている。 That is, the GOP, which is a coding compression unit, includes a data-compressed I picture (I) and a data-compressed P picture (P) that is motion-compensated by an I picture or P picture that is temporally forward. ) And a B picture (B) which is data-compressed by adding motion compensation by I and P pictures in the front and rear direction in terms of time.

蓄積順配列401では、Iピクチャは、GOPの先頭に位置しており、次に、Bピクチャが連続し、その後にPピクチャとなり、以下、B、B、Pの順で繰り返して配列される。 In the storage order array 401, the I picture is located at the head of the GOP, the B picture is next in succession, then the P picture, and then the B picture is repeated in the order of B, B, and P.

通常、ストリーム情報ファイル221の表示開始時刻はStart_PTS301(S_PTS301と略記)で規定され、表示終了時刻はEnd_PTS302(E_PTS302と略記)で規定され、図4の蓄積順配列401ではIピクチャの次のBピクチャがS_PTS301となり、最後のPピクチャがE_PTS302となっている。しかしながら、図4においてS_PTS301となったBピクチャは、フレーム画像を完全に復号化できるとは限らない。例えば当該BピクチャがオープンGOPで得られる場合は、当該Bピクチャを得るために参照するピクチャが前に存在しないため、フレーム画像を完全に復号化することができず、ブロックノイズが発生するなどの問題がある。 Normally, the display start time of the stream information file 221 is specified by Start_PTS301 (abbreviated as S_PTS301), and the display end time is specified by End_PTS302 (abbreviated as E_PTS302). In the storage order array 401 of FIG. Is the S_PTS 301, and the last P picture is the E_PTS 302. However, the B picture that has become S_PTS301 in FIG. 4 cannot necessarily completely decode the frame image. For example, when the B picture is obtained by an open GOP, there is no picture to refer to to obtain the B picture, so that the frame image cannot be completely decoded and block noise occurs. There's a problem.

そこで、本実施の形態では、再生開始前に、静的解析部152がストリーム情報ファイル221のデータ解析を静的に行い、完全にフレーム画像を復号可能なピクチャを開始点および終了点とするように並べ替えを行って表示順配列402を得る。図4に示す表示順配列402では、GOPの先頭がBピクチャであり、さらにBピクチャが続き、その次がIピクチャとなっており、当該Iピクチャを開始点であるS_VALID_PTS411とし、GOPの最後のPピクチャを終了点であるE_VALID_PTS412としている。 Therefore, in the present embodiment, before the reproduction is started, the static analysis unit 152 statically analyzes the data of the stream information file 221, so that the picture that can completely decode the frame image is set as the start point and the end point. Are rearranged to obtain a display order array 402. In the display order array 402 shown in FIG. 4, the head of the GOP is a B picture, the B picture is further followed by an I picture, and the I picture is set as S_VALID_PTS411 which is a start point, and the last of the GOP is set. The P picture is set as the end point E_VALID_PTS 412.

Iピクチャはフレーム内でデータ圧縮されているので完全に復号可能であり、最後のPピクチャは時間的に前方向のPピクチャによる動き補償を加えてデータ圧縮されているので完全に復号可能である。 The I picture is completely decodable because it is data-compressed in the frame, and the last P picture is completely decodable because it is data-compressed with motion compensation by the P picture that is forward in time. ..

また、静的解析部152は、S_VALID_PTS411の映像フレームを含むGOPにおいて、S_VALID_PTS411以降の映像フレームの映像輝度情報および表示開始時刻以降の音声出力レベルを検出する。同様にE_VALID_PTS412の映像フレームを含むGOPにおいて、E_VALID_PTS412までの映像フレームの映像輝度情報と、当該表示終了時刻までの音声出力レベルを検出する。 Further, the static analysis unit 152 detects the video luminance information of the video frames after S_VALID_PTS411 and the audio output level after the display start time in the GOP including the video frame of S_VALID_PTS411. Similarly, in the GOP including the video frame of E_VALID_PTS412, the video brightness information of the video frames up to E_VALID_PTS412 and the audio output level until the display end time are detected.

なお、本実施の形態では、1つの符号化圧縮単位で情報を保持する例を示しているが、例えば複数の符号化圧縮単位で情報を保持する構成としても良いし、1つの符号化圧縮単位よりも少ないフレーム数で情報を保持する構成としても良い。 It should be noted that although an example in which information is held in one coding compression unit is shown in the present embodiment, for example, a configuration may be used in which information is held in a plurality of coding compression units, or one coding compression unit. The information may be stored with a smaller number of frames.

静的解析部152で得られたS_VALID_PTS411、E_VALID_PTS412、映像輝度情報および音声出力レベルの情報は、メモリ120のプレイリスト情報160にフィードバックされる。 The S_VALID_PTS 411, E_VALID_PTS 412, video luminance information, and audio output level information obtained by the static analysis unit 152 are fed back to the playlist information 160 in the memory 120.

<プレイリスト情報のシンタックス>
図5は、プレイリスト情報160におけるシンタックスを説明する図である。「num_of_PlayList501」は、サイネージ表示を行う単位となるプレイリストの総数、「PlayList_Attribute502」は、プレイリストの総時間、プレイリスト名称、および記録日時のようなプレイリストの属性情報が保持されている。
<Syntax of playlist information>
FIG. 5 is a diagram illustrating the syntax in the playlist information 160. “Num_of_PlayList501” holds the total number of playlists that are units for signage display, and “PlayList_Attribute502” holds playlist attribute information such as total playlist time, playlist name, and recording date and time.

「PlayList_Attribute502」の1つ下の行にあるループ文(for以下)は、「num_of_PlayList501」の数だけ繰り返される。 The loop statement (below "for") in the line immediately below "PlayList_Attribute502" is repeated for the number of "num_of_PlayList501".

「num_of_MovieFile503」は、プレイリストを構成しているストリーム情報ファイル221の総数を示し、「num_of_MovieFile503」の1つ下の行にあるループ文(for以下)は、「num_of_MovieFile503」の数だけ繰り返される。 “Num_of_MovieFile 503” indicates the total number of stream information files 221 forming the playlist, and the loop statement (for or less) in the line immediately below “num_of_MovieFile 503” is repeated by the number of “num_of_MovieFile 503 ”.

「stream_name504」は、再生の対象となるストリーム情報ファイル221のファイル名を示し、「S_VALID_PTS411」および「E_VALID_PTS412」は、それぞれ再生対象のストリーム情報ファイル221の所定区間の再生開始時刻と再生終了時刻を示す。本実施の形態では、フレーム画像を完全に復号可能なピクチャのPTSを「S_VALID_PTS411」、「E_VALID_PTS412」としている。これらの情報から、符号化映像再生装置100は、ストリーム情報ファイル221のどの区間を再生すれば良いのかを判断することができる。Stream_name 504” indicates the file name of the stream information file 221 to be played back, and “S_VALID_PTS 411” and “E_VALID_PTS 412” respectively indicate the playback start time and playback end time of a predetermined section of the stream information file 221 to be played back. .. In the present embodiment, PTSs of pictures that can completely decode a frame image are “S_VALID_PTS411” and “E_VALID_PTS412”. From these pieces of information, the encoded video reproducing device 100 can determine which section of the stream information file 221 should be reproduced.

なお、「stream_name504」、「S_VALID_PTS411」および「E_VALID_PTS412」の情報を再生区間情報と呼称する。 The information of "stream_name 504", "S_VALID_PTS 411" and "E_VALID_PTS 412" is referred to as reproduction section information.

映像輝度情報510と音声レベル情報511は、前述したように静的解析部152において解析されたストリーム情報ファイル221の開始点近傍と終了点近傍の、映像輝度と音声出力レベルの情報である。 The image brightness information 510 and the audio level information 511 are information on the image brightness and the audio output level near the start point and the end point of the stream information file 221 analyzed by the static analysis unit 152 as described above.

解析日時情報512とは、静的解析部152においてストリーム情報ファイル221を解析した日時の情報であり、解析対象となるストリーム情報ファイル221を特定するファイル特定情報と関連付けて記録する。 The analysis date/time information 512 is information on the date/time when the stream information file 221 was analyzed by the static analysis unit 152, and is recorded in association with the file identification information that identifies the stream information file 221 to be analyzed.

静的解析部152は、「S_VALID_PTS411」、「E_VALID_PTS412」、映像輝度情報510および音声レベル情報511を得るためにストリーム情報ファイル221の解析を映像ファイル再生処理に先立って行うが、解析には多くの時間を必要とする。このため、解析日時情報512とファイル特定情報とを関連付けて記録することで、ストリーム情報ファイル221に変化がなければ、すなわち、以前に解析された結果と変化がない場合は、解析処理を行わないようにする。デジタルサイネージでは、符号化映像をループ再生で表示する形態が広く用いられているので、一度解析した後は、解析日時情報512が変更されることは少なく、解析を繰り返すことを回避することができ、解析に伴う復号処理の遅延を回避できる。 The static analysis unit 152 analyzes the stream information file 221 prior to the video file reproduction process in order to obtain “S_VALID_PTS411”, “E_VALID_PTS412”, the video luminance information 510 and the audio level information 511. I need time. Therefore, by recording the analysis date/time information 512 and the file identification information in association with each other, if there is no change in the stream information file 221, that is, if there is no change from the previously analyzed result, no analysis processing is performed. To do so. In digital signage, a form in which encoded video is displayed by loop reproduction is widely used. Therefore, the analysis date/time information 512 is rarely changed after analysis once, and it is possible to avoid repeating analysis. , It is possible to avoid the delay of the decoding process due to the analysis.

なお、ファイル特定情報とは、ファイルの更新日時、ファイルサイズ、ファイル名などを関連付けた情報であり、ストリーム情報ファイル221の変化の有無は、これらのファイル特定情報の変更の有無で判断する。 Note that the file identification information is information that associates a file update date/time, a file size, a file name, and the like, and whether or not the stream information file 221 has changed is determined by whether or not the file identification information has been changed.

なお、静的解析部152で抽出される「S_VALID_PTS411」、「E_VALID_PTS412」、映像輝度情報510、音声レベル情報511および解析日時情報512を、静的解析情報と呼称する。 The "S_VALID_PTS411", "E_VALID_PTS412", the video brightness information 510, the audio level information 511, and the analysis date/time information 512 extracted by the static analysis unit 152 are referred to as static analysis information.

<AVバッファへの保存>
図6は、ストリーム分離部111で分離された符号化映像情報および符号化音声情報をAVバッファ112に保存する場合の保存形態を説明する図である。図6に示すように、SDカード140には、複数のストリーム情報ファイル221が記録されている。ストリーム情報ファイル221は、MPEG−TSフォーマットで作成されたMTSファイル、MP4フォーマットで作成されたMP4ファイルおよびWMVフォーマットで作成されたWMVファイルなど様々な多重化フォーマットで作成されたファイルを含んでも良い。
<Saving to AV buffer>
FIG. 6 is a diagram illustrating a storage mode in which the encoded video information and the encoded audio information separated by the stream separation unit 111 are stored in the AV buffer 112. As shown in FIG. 6, a plurality of stream information files 221 are recorded on the SD card 140. The stream information file 221 may include files created in various multiplexing formats such as an MTS file created in the MPEG-TS format, an MP4 file created in the MP4 format, and a WMV file created in the WMV format.

多重化されたファイルであるストリーム情報ファイル221は、ストリーム分離部111で符号化映像情報と符号化音声情報に分離され、図6に示されるように、アクセスユニット単位でAVバッファ112に保存される。 The stream information file 221 that is a multiplexed file is separated into encoded video information and encoded audio information by the stream separation unit 111, and is stored in the AV buffer 112 in access unit units as shown in FIG. ..

AVバッファ112は、映像用バッファ601および音声用バッファ602を備え、それぞれのバッファは、連続的にデータを供給するために複数のバッファ領域を有しており、バッファ領域にアクセスユニット単位で情報が記録される。この情報の記録領域を、アクセスユニット情報領域と呼称する。 The AV buffer 112 includes a video buffer 601 and an audio buffer 602. Each buffer has a plurality of buffer areas for continuously supplying data, and information is stored in the buffer area in access unit units. Will be recorded. This information recording area is called an access unit information area.

本実施の形態では映像用バッファ601として30領域、音声用バッファ602として10領域のバッファ領域を有しているものとする。 In this embodiment, it is assumed that the video buffer 601 has 30 areas and the audio buffer 602 has 10 areas.

映像のフレームレートが30fps(frames per second)である場合、1/30秒×30=1秒分の映像データを保存することができる。また、音声も1アクセスユニットが0.1秒とすると、0.1秒×10=1秒分の音声データを保存することが可能となる。 When the frame rate of video is 30 fps (frames per second), 1/30 second×30=1 second of video data can be stored. As for voice, if one access unit has 0.1 second, it is possible to store 0.1 second×10=1 second of voice data.

映像用バッファ601のアクセスユニット情報領域には、符号化映像情報610と映像表示開始時刻611とが関連付けて記録されている。同様に音声用バッファ602のアクセスユニット情報領域には、符号化音声情報620と音声表示開始時刻621が関連付けて記録されている。 In the access unit information area of the video buffer 601, the encoded video information 610 and the video display start time 611 are recorded in association with each other. Similarly, in the access unit information area of the audio buffer 602, the encoded audio information 620 and the audio display start time 621 are recorded in association with each other.

一般的に、多重化されたストリーム情報ファイル221では、アクセスユニット単位で表示開始時刻が記録されている。当該表示開始時刻を、映像表示開始時刻611および音声表示開始時刻621に設定し、映像音声デコーダ114は当該時刻情報に従って、AVバッファ112のアクセスユニット情報領域から符号化映像情報610や符号化音声情報620を読み出して復号化処理を行う。このような制御データフローは、組み込み機器向けの汎用マルチメディア制御の仕様であるOpenMAXでも利用されている。 Generally, in the multiplexed stream information file 221, the display start time is recorded for each access unit. The display start time is set to the video display start time 611 and the audio display start time 621, and the video/audio decoder 114 reads the encoded video information 610 and the encoded audio information from the access unit information area of the AV buffer 112 according to the time information. 620 is read and a decoding process is performed. Such control data flow is also used in OpenMAX, which is a general-purpose multimedia control specification for embedded devices.

<映像輝度および音声出力レベルの調整>
図7は、映像表示とデータ供給のタイミングを示す図であり、横軸は時間軸である。ここでは、プレイリストとして、MTSファイルの「00111.mts」を2回再生させた後、MP4ファイルの「99999.mp4」を再生させる場合についての説明を行うものとする。
<Adjustment of video brightness and audio output level>
FIG. 7 is a diagram showing the timing of image display and data supply, and the horizontal axis is the time axis. Here, a case will be described in which, as the playlist, the MTS file “00111.mts” is reproduced twice and then the MP4 file “99999.mp4” is reproduced.

まず、データ供給制御部151は、SDカード140のストリーム情報ファイル221の中から「00111.mts」ファイルを読み出し、時刻t1でストリーム分離部111への供給を開始する。ストリーム分離部111で符号化映像情報と符号化音声情報に分離された後、ストリーム分離部111は、符号化映像情報および符号化音声情報のアクセスユニット毎に情報を取り出し、AVバッファ112にアクセスユニット単位で供給する。その際に、設定する映像表示開始時刻611および音声表示開始時刻621には、ストリーム情報ファイル221に記録されているアクセスユニット毎の表示時刻(タイムスタンプ)が付与される。 First, the data supply control unit 151 reads the “00111.mts” file from the stream information file 221 of the SD card 140, and starts the supply to the stream separation unit 111 at time t1. After being separated into the encoded video information and the encoded audio information by the stream separation unit 111, the stream separation unit 111 extracts the information for each access unit of the encoded video information and the encoded audio information, and the access unit is stored in the AV buffer 112. Supply in units. At that time, a display time (time stamp) for each access unit recorded in the stream information file 221 is added to the set video display start time 611 and audio display start time 621.

その後、AVバッファ112に記録されたアクセスユニット情報は、順次、映像音声デコーダ114に供給され、映像音声デコーダ114では、符号化情報を復号化して時刻t2で映像表示を開始する。 After that, the access unit information recorded in the AV buffer 112 is sequentially supplied to the video/audio decoder 114, and the video/audio decoder 114 decodes the encoded information and starts the video display at time t2.

データ供給制御部151は、「00111.mts」ファイルのファイル終端までデータ供給を続け、先行で読み出したストリーム情報ファイル221の全データ供給を終えると、すぐに後続するストリーム情報ファイル221を読み出し、時刻t3で再びストリーム分離部111への供給を開始する。この時点では先行するストリーム情報ファイルの再生(映像表示)が継続しているが、映像音声デコーダ114は、時刻t4で後続するストリーム情報ファイルの再生を開始し、映像表示が切り替わることになる。「99999.mp4」ファイルについても時刻t5でストリーム分離部111への供給を開始し、時刻t6で再生を開始する。 The data supply control unit 151 continues the data supply until the end of the file of the “00111.mts” file, and when all the data supply of the stream information file 221 read earlier is completed, immediately reads the subsequent stream information file 221 and sets the time. At t3, the supply to the stream separation unit 111 is started again. At this point, the reproduction (video display) of the preceding stream information file continues, but the video/audio decoder 114 starts the reproduction of the subsequent stream information file at time t4, and the video display is switched. The "99999.mp4" file also starts to be supplied to the stream separation unit 111 at time t5, and starts to be reproduced at time t6.

図8は、図7に示すようなタイミングチャートに基づいてストリーム情報ファイルを再生する場合についての、映像輝度および音声出力レベルの調整を説明する図である。図8において、映像表示のタイミングチャートと、静的解析部152での解析によって得られた映像輝度情報510および音声レベル情報511を示しており、横軸は時間軸である。 FIG. 8 is a diagram for explaining the adjustment of the video luminance and the audio output level when the stream information file is reproduced based on the timing chart as shown in FIG. FIG. 8 shows a timing chart of video display, video luminance information 510 and audio level information 511 obtained by analysis in the static analysis unit 152, and the horizontal axis is the time axis.

出力映像音声制御部153は、メモリ120に記録されたプレイリスト情報160から、映像輝度情報510および音声レベル情報511を読み出す。図8に示されるように、先行する「00111.mts」ファイルによる映像表示が、後続の「00111.mts」ファイルによる映像表示に切り替わる時刻T3において、映像輝度および音声出力レベルに、大きな差異が存在する。 The output video/audio control unit 153 reads the video luminance information 510 and the audio level information 511 from the playlist information 160 recorded in the memory 120. As shown in FIG. 8, at the time T3 when the video display by the preceding “00111.mts” file is switched to the video display by the subsequent “00111.mts” file, there is a large difference in the video luminance and the audio output level. To do.

出力映像音声制御部153は、当該差異が予め定めた所定の設定値以上である場合には、差異を減少させるように、当該映像再生区間において映像音声調整部115を制御する。具体的には、映像輝度については、図8の例の場合には、時刻T2〜T3の区間で、後続するストリーム情報ファイル221の開始点、すなわち時刻T3での輝度になるまで出力輝度を減少させるように映像音声調整部115を制御する。その結果、時刻T3において、映像輝度差が解消されるため、ユーザーにとって違和感のない映像シーンの切換えを行うことができる。 The output video/audio control unit 153 controls the video/audio adjustment unit 115 in the video reproduction section so as to reduce the difference when the difference is equal to or more than a predetermined set value set in advance. Specifically, regarding the video luminance, in the case of the example of FIG. 8, the output luminance is decreased in the section from time T2 to T3 until the start point of the subsequent stream information file 221, that is, the luminance at time T3. The video/audio adjustment unit 115 is controlled so as to perform the above operation. As a result, at time T3, the difference in image brightness is eliminated, so that it is possible to perform switching of image scenes that does not make the user feel uncomfortable.

同様に音声出力レベルについては、後続するストリーム情報ファイル221の開始点、すなわち時刻T3での音声出力レベルを、先行するストリーム情報ファイルの終了点、すなわち時刻T3での音声出力レベルに合わせるように音声出力レベルを下げる。その後、時刻T4で後続するストリーム情報ファイル221の本来の音声出力レベルになるように徐々に音声出力レベルを上げるように映像音声調整部115を制御する。その結果、時刻T3において、音声出力レベル差が解消されるため、ユーザーにとって違和感のない映像シーンの切換えを行うことができる。 Similarly, regarding the audio output level, the audio output level at the start point of the subsequent stream information file 221, that is, the audio output level at time T3 is adjusted so as to match the ending point of the preceding stream information file, that is, the audio output level at time T3. Lower the output level. After that, at time T4, the video/audio adjusting unit 115 is controlled so as to gradually increase the audio output level so that the original audio output level of the subsequent stream information file 221 is reached. As a result, at time T3, the difference in the audio output levels is eliminated, so that it is possible to switch the video scenes without causing the user to feel uncomfortable.

一方、図8に示されるように、2つ目の「00111.mts」ファイルによる映像表示が、後続の「99999.mp4」ファイルによる映像表示に切り替わる時刻T6においては、映像輝度および音声出力レベルに、大きな差異は存在しない。出力映像音声制御部153は、当該差異は予め定めた所定の設定値未満であるとして、調整は不要と判断し、特段の制御は行わない。 On the other hand, as shown in FIG. 8, at time T6 when the video display by the second “00111.mts” file is switched to the video display by the subsequent “99999.mp4” file, the video brightness and the audio output level are changed. , There is no big difference. The output video/audio control unit 153 determines that the adjustment is unnecessary and determines that the difference is less than a predetermined set value, and does not perform special control.

なお、時刻T2〜T4の区間および時刻T5〜T7の区間は、静的解析部152が解析する前後関係にあるストリーム情報ファイルの再生開始時刻と再生終了時刻、すなわちストリーム情報ファイルの接続点の近傍の区間であり、例えば、符号化圧縮単位の0.5秒間の区間に相当する。図8おいては、便宜的に「00111.mts」ファイルおよび「99999.mp4」ファイルの全期間分の映像輝度および音声出力レベルを示したが、静的解析部152による解析は、上述した時刻T2〜T4の区間および時刻T5〜T7の区間について行えば良い。 Note that the section from time T2 to T4 and the section from time T5 to T7 are the reproduction start time and reproduction end time of the stream information file in the context of being analyzed by the static analysis unit 152, that is, the vicinity of the connection point of the stream information file. Section, which corresponds to, for example, a 0.5 second section of the encoding compression unit. In FIG. 8, the video brightness and the audio output level for the entire period of the “00111.mts” file and the “99999.mp4” file are shown for convenience, but the analysis by the static analysis unit 152 is performed at the above-mentioned time. It suffices to perform the section from T2 to T4 and the section from time T5 to T7.

また、上記においては、時刻T3におけるアクセスユニットでの映像輝度および音声出力レベルの瞬時値の差異を用いて調整の要否を判断しているが、例えば時刻T2〜T3の区間、すなわち時刻T3における先行するストリーム情報ファイルの最終のアクセスユニットと、それより前の複数の先行アクセスユニットとを含む先行するストリーム情報ファイルの終了部分における映像輝度および音声出力レベルの平均値と、時刻T3における後続するストリーム情報ファイルの最初のアクセスユニットと、それより後の複数の後続アクセスユニットとを含む後続するストリーム情報ファイルの開始部分における映像輝度および音声出力レベルの平均値との差異を用いて調整の要否を判断しても構わない。 Further, in the above, whether or not the adjustment is necessary is determined by using the difference between the video brightness and the instantaneous value of the audio output level at the access unit at time T3. However, for example, the section between time T2 and T3, that is, at time T3 The average value of the video brightness and the audio output level at the end portion of the preceding stream information file including the last access unit of the preceding stream information file and the plurality of preceding access units before it, and the subsequent stream at time T3 Whether the adjustment is necessary or not is made by using the difference between the average value of the video luminance and the audio output level at the start portion of the subsequent stream information file including the first access unit of the information file and a plurality of subsequent access units after that. You may judge.

<符号化映像再生装置の全体動作>
次に、図1を参照しつつ、図9に示すフローチャートを用いて符号化映像再生装置100における全体動作を説明する。図9に示すように符号化映像再生装置100は、操作部130を介してプレイリストに基づいた再生の指示を受けることで動作を開始し、まず、システム制御部101は、SDカード140からストリーム情報ファイル221を読み出すように再生ドライバ102を制御する。
<Entire operation of coded video playback device>
Next, referring to FIG. 1, the overall operation of the coded video reproduction device 100 will be described using the flowchart shown in FIG. As shown in FIG. 9, the encoded video playback device 100 starts its operation by receiving a playback instruction based on a playlist via the operation unit 130. First, the system control unit 101 streams from the SD card 140. The reproduction driver 102 is controlled to read the information file 221.

ストリーム情報ファイル221は、ストリーム制御部110に入力され、ストリーム分離部111で符号化映像情報と符号化音声情報に分離される。その後、ストリーム分離部111は、符号化映像情報および符号化音声情報のアクセスユニット毎に情報を取り出し、AVバッファ112にアクセスユニット単位で保存する。これが、ステップS103の映像ファイル再生処理であるが、AVバッファ112へのアクセスユニット情報の保存の前に、静的解析部152が静的解析処理を実行する(ステップS101)。なお、映像ファイル再生処理については、後にさらに説明する。 The stream information file 221 is input to the stream control unit 110, and is separated by the stream separation unit 111 into encoded video information and encoded audio information. After that, the stream separation unit 111 extracts information for each access unit of encoded video information and encoded audio information, and stores the information in the AV buffer 112 in access unit units. This is the video file reproduction process of step S103, but the static analysis unit 152 executes the static analysis process before saving the access unit information in the AV buffer 112 (step S101). The video file reproduction process will be further described later.

静的解析部152は、ストリーム情報ファイル221のデータ解析を行い、完全にフレーム画像を復号可能なピクチャを開始点および終了点とするように並べ替えを行い、データ供給制御部151は、並べ替えられた順に従ってAVバッファ112にアクセスユニット単位で保存する。また、符号化映像情報および符号化音声情報に対して、それぞれ映像輝度解析および音声レベル解析を実行する。静的解析処理によって得られた情報は、メモリ120のプレイリスト情報160にフィードバックされる。なお、静的解析処理については、後にさらに説明する。 The static analysis unit 152 analyzes the data of the stream information file 221, and rearranges the frame images so that the pictures that can be decoded are the start point and the end point, and the data supply control unit 151 rearranges them. The data are stored in the AV buffer 112 in units of access units in the order in which they are stored. In addition, video luminance analysis and audio level analysis are performed on the encoded video information and the encoded audio information, respectively. The information obtained by the static analysis process is fed back to the playlist information 160 in the memory 120. The static analysis process will be further described later.

出力映像音声制御部153は、メモリ120に記録されたプレイリスト情報160から得られた映像輝度情報510および音声レベル情報511に基づいて、ストリーム情報ファイル221の接続点と、その近傍の区間における映像輝度の差異および音声出力レベルの差異が、所定の設定値以上か否かを判定する。設定値以上であれば当該区間に対して、映像音声調整部115を制御することにより、出力信号をフィルタリングするためのフィルタ設定処理を行う(ステップS102)。 The output video/audio control unit 153, based on the video brightness information 510 and the audio level information 511 obtained from the playlist information 160 recorded in the memory 120, the video in the connection point of the stream information file 221 and the section in the vicinity thereof. It is determined whether or not the difference in brightness and the difference in audio output level are equal to or greater than a predetermined set value. If it is equal to or more than the set value, the filter setting process for filtering the output signal is performed by controlling the video/audio adjustment unit 115 for the section (step S102).

この出力信号のフィルタリングが、図8を用いて説明した映像音声調整部115による調整処理であり、この調整処理のために映像音声調整部115の設定を変える処理がフィルタ設定処理である。なお、静的解析処理は、先行するストリーム情報ファイル221に対応する解析が終了し、ストリーム分離部111で後続のストリーム情報ファイル221に対する分離処理が開始されることで後続のストリーム情報ファイル221に対する解析を始めるので、先行するストリーム情報ファイル221と後続のストリーム情報ファイル221の接続点と、その近傍の区間であれば、映像輝度および音声出力レベルの情報を有している。そのため、上述したように当該区間での映像輝度の差異および音声出力レベルの差異を判定することができる。 The filtering of this output signal is the adjustment processing by the video/audio adjustment unit 115 described with reference to FIG. 8, and the processing of changing the setting of the video/audio adjustment unit 115 for this adjustment processing is the filter setting processing. In the static analysis processing, the analysis corresponding to the preceding stream information file 221 is completed, and the separation processing for the subsequent stream information file 221 is started by the stream separation unit 111, whereby the subsequent stream information file 221 is analyzed. Therefore, the connection point of the preceding stream information file 221 and the succeeding stream information file 221 and the section in the vicinity thereof have information on video luminance and audio output level. Therefore, as described above, it is possible to determine the difference in the video luminance and the difference in the audio output level in the section.

次に、システム制御部101は、ステップS103においてアクセスユニット単位でAVバッファ112に保存されたアクセスユニット情報を、図7を用いて説明した手順で、順次、映像音声デコーダ114に供給し、データ供給制御部151は、図7の時刻t3およびt5のように、読み出したストリーム情報ファイルの映像音声デコーダ114への全データ供給が終了したか否かを判定する(ステップS104)。 Next, the system control unit 101 sequentially supplies the access unit information stored in the AV buffer 112 for each access unit in step S103 to the video/audio decoder 114 by the procedure described with reference to FIG. The control unit 151 determines, as at times t3 and t5 in FIG. 7, whether or not all data supply of the read stream information file to the audiovisual decoder 114 has been completed (step S104).

ステップS104において、読み出したストリーム情報ファイルの全データ供給が終了したと判定した場合(YES)は、当該ストリーム情報ファイルの次に再生すべきストリーム情報ファイルが存在するか否かを、プレイリストに基づいて判定する(ステップS105)。一方、全てのデータ供給が終了していない場合(NO)は、ステップS103の処理を続ける。 When it is determined in step S104 that the supply of all the data of the read stream information file is completed (YES), it is determined whether or not there is a stream information file to be reproduced next to the stream information file based on the playlist. (Step S105). On the other hand, if all the data supply has not been completed (NO), the process of step S103 is continued.

ステップS105において、次のプレイリストが存在すると判定された場合(YES)は、ステップS106に移行し、次のプレイリストが存在しない場合(NO)は、プレイリストに基づいた再生を終了する。 In step S105, when it is determined that the next playlist exists (YES), the process proceeds to step S106, and when the next playlist does not exist (NO), the reproduction based on the playlist ends.

データ供給制御部151は、先行して再生していたストリーム情報ファイルのファイル終端を示すPTS(E_VALID_PTS412)をタイムスタンプのオフセット時刻としてAVバッファ112に記録する(ステップS106)。その後、次のストリーム情報ファイルの供給を開始し(ステップS107)、ステップS103以下の処理を繰り返す。なお、オフセット時刻とは、次のストリーム情報ファイルの表示開始時刻をずらすと言う意味で用いている。 The data supply control unit 151 records the PTS (E_VALID_PTS412) indicating the end of the stream information file that was played back in advance in the AV buffer 112 as the offset time of the time stamp (step S106). Then, the supply of the next stream information file is started (step S107), and the processing from step S103 is repeated. The offset time is used to shift the display start time of the next stream information file.

データ供給制御部151は、次のストリーム情報ファイルの映像音声デコーダ114への供給に先立って、AVバッファ112でアクセスユニット単位で設定されている映像表示開始時刻611および音声表示開始時刻621を、記録したオフセット時刻に変更した後、即座に、次のストリーム情報ファイルの供給を開始する。その後は、供給するストリーム情報ファイルのアクセスユニットの読み出しの時間間隔に合わせて、順次、アクセスユニット毎に映像表示開始時刻611および音声表示開始時刻621を変更する。 The data supply control unit 151 records the video display start time 611 and the audio display start time 621 set for each access unit in the AV buffer 112 before supplying the next stream information file to the video/audio decoder 114. Immediately after changing to the offset time, the supply of the next stream information file is started. After that, the video display start time 611 and the audio display start time 621 are sequentially changed for each access unit in accordance with the read time interval of the access unit of the supplied stream information file.

このように、先行して再生していたストリーム情報ファイルのファイル終端を示すPTSをタイムスタンプのオフセット時刻とし、次のストリーム情報ファイルにおいては当該オフセット時刻を映像および音声の表示開始時刻とすることで、映像シーンを途切れさせることなく連続的に再生することが可能となる。 As described above, the PTS indicating the file end of the stream information file that was reproduced in advance is set as the offset time of the time stamp, and the offset time is set as the video and audio display start time in the next stream information file. , It becomes possible to continuously reproduce the video scene without interruption.

<静的解析処理>
次に、図10に示す静的解析処理の動作を示すフローチャートを用いて、静的解析処理についてさらに説明する。
<Static analysis processing>
Next, the static analysis process will be further described with reference to the flowchart showing the operation of the static analysis process shown in FIG.

静的解析処理において、静的解析部152は、まずメモリ120のプレイリスト情報160から解析日時情報512(図5)を読み出し、プレイリスト情報160中に有効な静的解析情報を有するか否かを判定する(ステップS201)。 In the static analysis process, the static analysis unit 152 first reads the analysis date/time information 512 (FIG. 5) from the playlist information 160 in the memory 120, and determines whether or not the playlist information 160 has valid static analysis information. Is determined (step S201).

この判定は、再生しようとしているストリーム情報ファイルの解析日時情報512が変更されているか否かで判定され、解析日時情報512に含まれるファイルの更新日時、ファイルサイズおよびファイル名が変更されているか否かで判定され、何れも変更されていない場合は解析日時情報512が変更されておらず、有効な静的解析情報があるものと判定し(YES)、以下の解析処理を行わずに終了する。なお、ファイルの更新日時、ファイルサイズおよびファイル名が更新されているか否かは、ファイルのプロパティの情報によって確認することができる。 This determination is made based on whether or not the analysis date/time information 512 of the stream information file to be reproduced has been changed, and whether or not the file update date/time, file size and file name included in the analysis date/time information 512 have been changed. If the analysis date/time information 512 has not been changed and there is valid static analysis information (YES), the processing is ended without performing the following analysis processing. .. Whether or not the file update date/time, file size, and file name have been updated can be confirmed by the file property information.

一方、解析日時情報512が変更されている場合は、有効な静的解析情報がないものと判定し(NO)、ステップS202に進んでストリーム情報ファイル221から静的解析情報を抽出する。 On the other hand, when the analysis date/time information 512 is changed, it is determined that there is no valid static analysis information (NO), and the process proceeds to step S202 to extract the static analysis information from the stream information file 221.

ステップS202では、映像属性情報を取得する。映像属性情報としては、例えば、MPEGのシーケンスヘッダを抽出し、当該ヘッダ情報から、解像度、フレームレート、HDR(High Dynamic Range)対応の有無を取得する。HDRは通常の映像の輝度情報より広い範囲の輝度情報を持つ規格であり、HDR対応の有無とは、この規格に対応しているか否かを示す情報である。 In step S202, video attribute information is acquired. As the video attribute information, for example, an MPEG sequence header is extracted, and the resolution, frame rate, and HDR (High Dynamic Range) compatibility are acquired from the header information. HDR is a standard having brightness information in a wider range than the brightness information of normal video, and whether or not HDR is supported is information indicating whether or not this standard is supported.

また、ストリーム情報ファイル221のPES(Packetized Elementary Stream)ヘッダの開始点/終了点、およびファイルサイズからビットレート情報を算出する。PESヘッダは、アクセスユニット単位毎のヘッダであり、内部情報としてPTS(Presentation Time Stamp)およびDTS(Decoding Time Stamp)を保持しており、ファイルサイズをPTS差(終了PTS−開始PTS=再生時間)で割ることでビットレートを算出できる。 Also, the bit rate information is calculated from the start point/end point of the PES (Packetized Elementary Stream) header of the stream information file 221 and the file size. The PES header is a header for each access unit, holds PTS (Presentation Time Stamp) and DTS (Decoding Time Stamp) as internal information, and sets the file size to PTS difference (end PTS-start PTS=playback time). The bit rate can be calculated by dividing by.

映像属性情報を取得した後は、音声属性情報を取得する(ステップS203)。音声属性情報は、音声ヘッダ情報から、チャンネル数、サンプリングレートを抽出する。 After acquiring the video attribute information, the audio attribute information is acquired (step S203). As the audio attribute information, the number of channels and sampling rate are extracted from the audio header information.

次に、ステップS204において映像開始点を検出し、ステップS205において映像終了点を検出する。具体的には、図4を用いて説明したように、蓄積フレーム順に記録されたストリーム情報ファイル221において、参照関係が確立できていないピクチャS_PTS301はS_VALID_PTS411として使用せず、IピクチャをS_VALID_PTS411として使用する。また、E_PTS302は参照関係が確立できているのでE_VALID_PTS412として使用するようにピクチャ、ここではアクセスユニットの並べ替えを行う。 Next, in step S204, the video start point is detected, and in step S205, the video end point is detected. Specifically, as described with reference to FIG. 4, in the stream information file 221 recorded in the order of accumulated frames, the picture S_PTS301 whose reference relationship has not been established is not used as S_VALID_PTS411, but the I picture is used as S_VALID_PTS411. .. Further, since the E_PTS 302 has established the reference relationship, the pictures, here, the access units are rearranged so as to be used as the E_VALID_PTS 412.

ストリーム情報ファイル221のPES(Packetized Elementary Stream)ヘッダから、S_PT301およびE_PTS302を抽出でき、ピクチャの種別(I、P、B)から参照関係が判るので、映像フレームの完全に復号可能な開始点(S_VALID_PTS)および終了点(E_VALID_PTS)を設定することができる。 Since S_PT301 and E_PTS302 can be extracted from the PES (Packetized Elementary Stream) header of the stream information file 221, and the reference relationship can be known from the picture type (I, P, B), the start point (S_VALID_PTS) at which the video frame can be completely decoded. ) And the end point (E_VALID_PTS) can be set.

次に、ステップS206において、映像輝度の解析を行う。映像輝度の解析は、S_VALID_PTS411を含む開始点近傍の映像符号化圧縮単位に対して、ソフトウェアデコード処理を行い、映像フレーム毎に輝度値ヒストグラムを生成し、映像輝度平均値、映像輝度最大値を抽出する。同様に、E_VALID_PTS412を含む終了点近傍の映像符号化圧縮単位に対してもソフトウェアデコード処理を行い、映像輝度平均値、映像輝度最大値を抽出する。 Next, in step S206, the image brightness is analyzed. For video luminance analysis, software decoding processing is performed on the video coding compression unit near the start point including S_VALID_PTS411, a luminance value histogram is generated for each video frame, and a video luminance average value and a video luminance maximum value are extracted. To do. Similarly, the software decoding process is also performed on the video coding compression unit near the end point including the E_VALID_PTS 412 to extract the video brightness average value and the video brightness maximum value.

映像輝度の解析に際しては画像データを標本化し、それを量子化することで画素毎の輝度値を得ることができ、横路に輝度値、縦軸に各輝度値を持つ画素の個数として表すことで輝度値ヒストグラムを得ることができる。輝度値ヒストグラムを用いると、画像中の画素の輝度値の分布を知ることができ、明るさ、色の補正、コントラストの強調などの画像処理ができ、また、平均輝度および最大輝度も取得できる。 When analyzing the image brightness, the image data is sampled and the value can be quantized to obtain the brightness value for each pixel. By expressing the brightness value on the horizontal axis and the number of pixels having each brightness value on the vertical axis, A luminance value histogram can be obtained. By using the brightness value histogram, it is possible to know the distribution of the brightness values of the pixels in the image, perform image processing such as brightness and color correction, and emphasize contrast, and also obtain the average brightness and the maximum brightness.

次に、ステップS207において、音声レベルの解析を行う。音声レベルの解析は、S_VALID_PTS411を含む開始点近傍の映像符号化圧縮単位の区間に対して、音声符号化圧縮単位のソフトウェアデコード処理を行い、音声出力レベルを抽出する。同様に、E_VALID_PTS412を含む終了点近傍の映像符号化圧縮単位に対してもソフトウェアデコード処理を行い、音声出力レベルを抽出する。符号化圧縮された音声情報を復号化すると、出力音声レベルを持つ音声情報となり音声出力レベルの抽出が可能となる。 Next, in step S207, the sound level is analyzed. In the analysis of the audio level, the software decoding process of the audio encoding compression unit is performed on the section of the video encoding compression unit near the start point including S_VALID_PTS411 to extract the audio output level. Similarly, the software decoding process is also performed on the video coding compression unit near the end point including the E_VALID_PTS 412 to extract the audio output level. When the encoded and compressed voice information is decoded, the voice information has the output voice level, and the voice output level can be extracted.

なお、上述したステップS206およびS207におけるS_VALID_PTS411を含む開始点近傍およびE_VALID_PTS412を含む終了点近傍とは、例えば開始点および終了点を中心とした0.5秒間の映像符号化圧縮単位であり、図8に示した、時刻T2〜T4の区間および時刻T5〜T7の区間に相当する。 Note that the vicinity of the start point including S_VALID_PTS 411 and the vicinity of the end point including E_VALID_PTS 412 in steps S206 and S207 described above are, for example, a 0.5 second video encoding compression unit centered on the start point and the end point, Corresponds to the section from time T2 to T4 and the section from time T5 to T7.

最後に、ステップS208において、メモリ120のプレイリスト情報160に解析日時情報を保存する。解析日時情報には、静的解析情報を取得した日時情報、静的解析したファイルの更新日時、ファイルサイズ、ファイル名、SDカードの種別情報などのファイル特定情報を記録する。 Finally, in step S208, the analysis date/time information is stored in the playlist information 160 of the memory 120. In the analysis date/time information, file identification information such as date/time information when the static analysis information is acquired, update date/time of the statically analyzed file, file size, file name, and SD card type information is recorded.

<ファイル再生処理>
次に、図11に示すファイル再生処理の動作を示すフローチャートを用いて、ファイル再生処理についてさらに説明する。
<File playback process>
Next, the file reproducing process will be further described with reference to the flowchart showing the operation of the file reproducing process shown in FIG.

ファイル再生処理においては、まず、データ供給制御部151からの指示に基づいて、再生ドライバ102がSDカード140から再生対象のストリーム情報ファイルの読み込みを行う(ステップS301)。ファイル読み込み単位は、所定のファイルサイズで行うものとし、本実施の形態では1MB(メガバイト)毎に読み込むものとする。 In the file reproduction process, first, the reproduction driver 102 reads a stream information file to be reproduced from the SD card 140 based on an instruction from the data supply control unit 151 (step S301). The file read unit is a predetermined file size, and in the present embodiment, it is read every 1 MB (megabyte).

再生ドライバ102が読み込んだストリーム情報ファイルは、ストリーム分離部111に入力されて、符号化映像情報と符号化音声情報とに分離される(ステップS302)。 The stream information file read by the reproduction driver 102 is input to the stream separation unit 111 and separated into encoded video information and encoded audio information (step S302).

分離された符号化映像情報および符号化音声情報は、アクセスユニット単位に分割されると共に、アクセスユニット単位の表示開始時刻(映像表示開始時刻611および音声表示開始時刻621)を抽出し、タイムスタンプとしてアクセスユニットに付与し、AVバッファ112への書込みが行われる(ステップS303)。 The separated encoded video information and encoded audio information are divided into access unit units, and the display start time (video display start time 611 and audio display start time 621) of each access unit is extracted and used as a time stamp. It is given to the access unit and written in the AV buffer 112 (step S303).

その後、符号化映像情報および符号化音声情報は、アクセスユニット単位毎に、映像音声デコーダ114に供給され、映像音声デコーダ114で復号される(ステップS304)。 Thereafter, the coded video information and the coded audio information are supplied to the video/audio decoder 114 for each access unit and decoded by the video/audio decoder 114 (step S304).

その後、1MB毎に読み込まれたデータにストリーム情報ファイルのファイル終端が含まれているか否かを判定し(ステップS305)、ファイル終端が含まれていない場合(NO)には、ステップS301に移行し、次の1MBのデータを読み込む。一方、ファイル終端を検出(YES)した場合は、当該ストリーム情報ファイル全てが映像音声デコーダ114に供給されたものと判断し、ファイル再生処理を終了する。 After that, it is determined whether or not the data read for each 1 MB includes the file end of the stream information file (step S305), and if the file end is not included (NO), the process proceeds to step S301. , Read the next 1 MB of data. On the other hand, when the end of the file is detected (YES), it is determined that all the stream information files have been supplied to the video/audio decoder 114, and the file reproducing process is ended.

以上説明したように、本発明に係る符号化映像再生装置100においては、図9に示すフローチャートを用いて説明したように、先行して再生していたストリーム情報ファイルのファイル終端を示すPTSをタイムスタンプのオフセット時刻とし、次のストリーム情報ファイルにおいては当該オフセット時刻を映像および音声の表示開始時刻とすることで、映像音声デコーダ114での初期化処理を省略でき、初期化処理に費やす時間が不要となって、映像シーンを途切れさせることなく連続的に再生することが可能となる。このため、映像ストリームの遷移に起因するギャップをなくすことができる。なお、上記初期化処理には、映像音声デコーダ114に供給する映像の解像度およびフレームレート設定などの事前設定、映像音声デコーダ114のバッファの初期化などを含んでいる。 As described above, in the coded video reproducing apparatus 100 according to the present invention, as described with reference to the flowchart shown in FIG. 9, the PTS indicating the file end of the stream information file that was reproduced first is timed. By using the offset time of the stamp and the offset time in the next stream information file as the display start time of video and audio, the initialization processing in the video/audio decoder 114 can be omitted, and the time spent for the initialization processing is unnecessary. Therefore, it is possible to continuously reproduce the video scene without interruption. Therefore, it is possible to eliminate the gap caused by the transition of the video stream. The initialization processing includes presetting of the resolution and frame rate of the video supplied to the video/audio decoder 114, initialization of the buffer of the video/audio decoder 114, and the like.

また、上記のような機能を持たせるために符号化映像再生装置100に特別なハードウェアを付加する必要がないので、装置自体のコストアップを抑制できる。 Further, since it is not necessary to add special hardware to the encoded video reproduction device 100 in order to have the above-described functions, it is possible to suppress the cost increase of the device itself.

また、静的解析部152は、ステップS103の映像ファイル再生処理を実行する前に、静的解析処理を実行し、完全にフレーム画像を復号可能なピクチャを開始点および終了点とするようにストリーム情報ファイル221のピクチャの並べ替えを行い、並べ替えた順に従ってAVバッファ112にアクセスユニット単位で保存するので、完全に復号化できない映像フレームを確実に除外することができ、映像ストリームの遷移時に、ブロックノイズなどが発生させることなく映像表示が可能となる。 In addition, the static analysis unit 152 executes the static analysis process before executing the video file reproduction process of step S103, and streams the frame image so that the start point and the end point are pictures that can be completely decoded. Since the pictures of the information file 221 are rearranged and stored in the AV buffer 112 in access unit units according to the rearranged order, it is possible to reliably exclude video frames that cannot be completely decoded, and at the time of video stream transition, Video can be displayed without causing block noise.

また、出力映像音声制御部153は、プレイリスト情報160内に記録された開始点および終了点の属性情報に基づいて、映像シーンの繋ぎ目で、映像音声調整部115を制御することにより、急俊な映像輝度変化および音声出力レベル変化が起きないように、画質および音質の出力制御を行うので、映像ストリームの遷移時に、映像輝度および音声出力レベルが大きく変化することが抑制され、ユーザーにとって違和感のない映像シーンの切換えができる。 In addition, the output video/audio control unit 153 controls the video/audio adjustment unit 115 at the seam of the video scenes based on the attribute information of the start point and the end point recorded in the playlist information 160, so that the output video/audio control unit 153 suddenly operates. Image quality and sound quality output control is performed so that rapid changes in video brightness and audio output level do not occur, so it is possible to prevent large changes in video brightness and audio output level during transition of the video stream, which makes users feel uncomfortable. You can switch the video scene without.

この発明は詳細に説明されたが、上記した説明は、全ての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。 Although the present invention has been described in detail, the above description is illustrative in all aspects, and the present invention is not limited thereto. It is understood that innumerable variants not illustrated can be envisaged without departing from the scope of the invention.

なお、本発明は、その発明の範囲内において、実施の形態を適宜、変形、省略することが可能である。 It should be noted that the present invention can appropriately modify or omit the embodiments within the scope of the invention.

Claims (8)

符号化された映像情報と音声情報とが多重化されたストリーム情報ファイルを再生する符号化映像再生装置であって、
前記ストリーム情報ファイルから、前記映像情報と前記音声情報とを分離し、それぞれアクセスユニット単位に分割するストリーム分離部と、
前記アクセスユニット単位に分割された、前記映像情報および前記音声情報を、それぞれの表示開始時刻と関連付けて記録するバッファと、
前記表示開始時刻に基づいて、前記映像情報および前記音声情報を前記バッファから読み出して復号するデコーダと、
前記バッファに対する前記表示開始時刻、前記映像情報および前記音声情報の記録の制御と、前記バッファから前記デコーダへの前記映像情報および前記音声情報の供給を制御するデータ供給制御部と、
前記データ供給制御部による前記バッファへの前記映像情報および前記音声情報の記録に先立って、前記ストリーム情報ファイルの最初のアクセスユニットと、最終のアクセスユニットのデータ解析を行う解析部を備え、
前記データ供給制御部は、
先行するストリーム情報ファイルの映像情報および音声情報の供給を終えると、前記先行するストリーム情報ファイルの最終のアクセスユニットの表示開始時刻を、後続するストリーム情報ファイルの映像情報および音声情報の供給に先立って、前記後続するストリーム情報ファイルの最初のアクセスユニットの表示開始時刻に再設定し、
前記解析部は、完全にフレーム画像を復号可能なアクセスユニットが前記最初のアクセスユニットおよび前記最終のアクセスユニットとなるように、アクセスユニットの並べ替えを行い、前記データ供給制御部は、並べ替えられた順に前記バッファに記録する、符号化映像再生装置。
A coded video playback device for playing back a stream information file in which coded video information and audio information are multiplexed,
A stream separation unit that separates the video information and the audio information from the stream information file and divides each into an access unit.
A buffer for recording the video information and the audio information divided in units of the access units in association with respective display start times,
A decoder for reading and decoding the video information and the audio information from the buffer based on the display start time;
A control of recording of the display start time to the buffer, the video information and the audio information, and a data supply control unit that controls supply of the video information and the audio information from the buffer to the decoder,
Prior to recording the video information and the audio information in the buffer by the data supply control unit, an analysis unit for performing data analysis of a first access unit of the stream information file and a final access unit is provided,
The data supply control unit,
When the supply of the video information and the audio information of the preceding stream information file is completed, the display start time of the last access unit of the preceding stream information file is set before the supply of the video information and the audio information of the succeeding stream information file. , Reset to the display start time of the first access unit of the subsequent stream information file ,
The analysis unit rearranges the access units so that the access units capable of completely decoding the frame image are the first access unit and the last access unit, and the data supply control unit rearranges them. A coded video reproducing device for recording in the buffer in the order of
前記デコーダで復号された映像情報および音声情報を受け、それぞれの映像輝度および出力音量レベルの調整を行う映像音声調整部を備え、
前記解析部は、
前記ストリーム情報ファイルの前記最初のアクセスユニットを含む開始部分および、前記最終のアクセスユニットを含む終了部分の映像輝度および音声出力レベルを解析し、
前記映像音声調整部は、
前記先行するストリーム情報ファイルの前記終了部分と、前記後続するストリーム情報ファイルの前記開始部分において、前記映像輝度の差異および音声出力レベルの差異が、予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させる、請求項1記載の符号化映像再生装置。
A video/audio adjusting unit that receives the video information and the audio information decoded by the decoder and adjusts the video brightness and the output volume level of each is provided.
The analysis unit is
Analyzing video luminance and audio output level of a start portion including the first access unit and an end portion including the final access unit of the stream information file;
The video and audio adjustment unit,
If the difference in the video luminance and the difference in the audio output level between the end portion of the preceding stream information file and the start portion of the subsequent stream information file are larger than the predetermined difference, the predetermined The coded video reproduction device according to claim 1, wherein the video brightness and the audio output level are reduced so that the difference is within the difference.
前記映像音声調整部は、
前記先行するストリーム情報ファイルの前記最終のアクセスユニットと、前記後続するストリーム情報ファイルの前記最初のアクセスユニットにおいて、前記映像輝度の差異および前記音声出力レベルの差異が、前記予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させる、請求項2記載の符号化映像再生装置。
The video and audio adjustment unit,
The difference in the video luminance and the difference in the audio output level between the final access unit of the preceding stream information file and the first access unit of the subsequent stream information file are larger than the predetermined difference. In this case, the coded video reproduction device according to claim 2, wherein the video brightness and the audio output level are reduced so that the difference is within the predetermined difference.
前記先行するストリーム情報ファイルの前記終了部分は、前記最終のアクセスユニットと、それより前の複数の先行アクセスユニットを含み、
前記後続するストリーム情報ファイルの前記開始部分は、前記最初のアクセスユニットと、それより後の複数の後続アクセスユニットを含み、
前記映像音声調整部は、
前記最終のアクセスユニットおよび前記複数の先行アクセスユニットにおける前記映像輝度および前記音声出力レベルのそれぞれの平均値と、
前記最初のアクセスユニットおよび前記複数の後続アクセスユニットにおける前記映像輝度および前記音声出力レベルのそれぞれの平均値との差異が、前記予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させる、請求項3記載の符号化映像再生装置。
The end portion of the preceding stream information file includes the final access unit and a plurality of preceding access units before it.
The start portion of the subsequent stream information file includes the first access unit and a plurality of subsequent access units after the first access unit,
The video and audio adjustment unit,
An average value of each of the video luminance and the audio output level in the final access unit and the plurality of preceding access units,
If the difference between the video access luminance and the average value of the audio output levels in the first access unit and the plurality of subsequent access units is larger than the predetermined difference, the difference is within the predetermined difference. The coded video reproduction device according to claim 3, wherein the video brightness and the audio output level are reduced as described above.
符号化された映像情報と音声情報とが多重化されたストリーム情報ファイルを再生する符号化映像再生方法であって、
(a)前記ストリーム情報ファイルから、前記映像情報と前記音声情報とを分離するステップと
(b)前記映像情報および前記音声情報それぞれアクセスユニット単位に分割し、分割された、前記映像情報および前記音声情報を、それぞれの表示開始時刻と関連付けてバッファに記録するステップと、
(c)前記バッファから前記映像情報および前記音声情報を読み出してデコーダに供給するステップと、
(d)前記デコーダにおいて、前記表示開始時刻に基づいて、前記映像情報および前記音声情報を復号するステップと、を備え、
前記ステップ(d)の後に、
先行するストリーム情報ファイルの最終のアクセスユニットの表示開始時刻を、後続するストリーム情報ファイルの映像情報および音声情報の前記デコーダへの供給に先立って、前記後続するストリーム情報ファイルの最初のアクセスユニットの表示開始時刻に再設定するステップを備え、
前記ステップ(b)に先立って、
(e)前記ストリーム情報ファイルの最初のアクセスユニットと、最終のアクセスユニットのデータ解析を行うステップを備え、
前記ステップ(e)は、
完全にフレーム画像を復号可能なアクセスユニットが前記最初のアクセスユニットおよび前記最終のアクセスユニットとなるように、アクセスユニットの並べ替えを行うステップを含み、
前記ステップ(b)は、
前記ステップ(e)で並べ替えられた順に前記バッファに記録する、符号化映像再生方法。
A coded video reproduction method for reproducing a stream information file in which coded video information and audio information are multiplexed,
(A) separating the video information and the audio information from the stream information file, and (b) dividing the video information and the audio information into access unit units, and dividing the video information and the audio information. Recording information in a buffer in association with each display start time,
(C) reading the video information and the audio information from the buffer and supplying them to a decoder;
(D) decoding the video information and the audio information on the basis of the display start time in the decoder,
After step (d),
The display start time of the last access unit of the preceding stream information file is displayed before the supply of the video information and audio information of the following stream information file to the decoder. for example Bei the step of re-set to the start time,
Prior to the step (b),
(E) a step of performing data analysis of the first access unit and the last access unit of the stream information file,
The step (e) includes
Reordering the access units so that the access units capable of completely decoding the frame image are the first access unit and the final access unit,
The step (b) includes
A coded video reproducing method, wherein recording is performed in the buffer in the order rearranged in step (e).
前記ステップ(d)の後に、
(f)前記デコーダで復号された映像情報および音声情報を受け、それぞれの映像輝度および出力音量レベルの調整を行うステップを備え、
前記ステップ(e)は、
前記ストリーム情報ファイルの前記最初のアクセスユニットを含む開始部分および、前記最終のアクセスユニットを含む終了部分の映像輝度および音声出力レベルを解析するステップを含み、
前記ステップ(f)は、
前記先行するストリーム情報ファイルの前記終了部分と、前記後続するストリーム情報ファイルの前記開始部分において、前記映像輝度の差異および音声出力レベルの差異が、予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させるステップを含む、請求項5記載の符号化映像再生方法。
After step (d),
(F) a step of receiving video information and audio information decoded by the decoder and adjusting video luminance and output volume level of each,
The step (e) includes
Analyzing the video brightness and audio output level of a start portion including the first access unit and an end portion including the final access unit of the stream information file,
The step (f) includes
If the difference in the video luminance and the difference in the audio output level between the end portion of the preceding stream information file and the start portion of the subsequent stream information file are larger than the predetermined difference, the predetermined 6. The encoded video reproducing method according to claim 5 , further comprising the step of reducing the video luminance and the audio output level so that the difference is within the above difference.
前記ステップ(f)は、
前記先行するストリーム情報ファイルの前記最終のアクセスユニットと、前記後続するストリーム情報ファイルの前記最初のアクセスユニットにおいて、前記映像輝度の差異および前記音声出力レベルの差異が、前記予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させるステップを含む、請求項6記載の符号化映像再生方法。
The step (f) includes
The difference in the video luminance and the difference in the audio output level between the final access unit of the preceding stream information file and the first access unit of the subsequent stream information file are larger than the predetermined difference. In this case, the coded video reproducing method according to claim 6, further comprising the step of reducing the video luminance and the audio output level so that the difference is within the predetermined difference.
前記先行するストリーム情報ファイルの前記終了部分は、前記最終のアクセスユニットと、それより前の複数の先行アクセスユニットを含み、
前記後続するストリーム情報ファイルの前記開始部分は、前記最初のアクセスユニットと、それより後の複数の後続アクセスユニットを含み、
前記ステップ(f)は、
前記最終のアクセスユニットおよび前記複数の先行アクセスユニットにおける前記映像輝度および前記音声出力レベルのそれぞれの平均値と、
前記最初のアクセスユニットおよび前記複数の後続アクセスユニットにおける前記映像輝度および前記音声出力レベルのそれぞれの平均値との差異が、前記予め定めた差異よりも大きい場合に、前記予め定めた差異以内とするように、前記映像輝度および音声出力レベルを低減させるステップを含む、請求項7記載の符号化映像再生方法。
The end portion of the preceding stream information file includes the final access unit and a plurality of preceding access units before it.
The start portion of the subsequent stream information file includes the first access unit and a plurality of subsequent access units after the first access unit,
The step (f) includes
An average value of each of the video luminance and the audio output level in the final access unit and the plurality of preceding access units,
If the difference between the video access luminance and the average value of the audio output levels in the first access unit and the plurality of subsequent access units is larger than the predetermined difference, the difference is within the predetermined difference. 8. The encoded video reproduction method according to claim 7, further comprising the step of reducing the video brightness and the audio output level.
JP2019518657A 2017-05-17 2017-05-17 CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD Active JP6742515B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/018464 WO2018211613A1 (en) 2017-05-17 2017-05-17 Encoded video reproduction device and encoded video reproduction method

Publications (2)

Publication Number Publication Date
JPWO2018211613A1 JPWO2018211613A1 (en) 2019-11-07
JP6742515B2 true JP6742515B2 (en) 2020-08-19

Family

ID=64274223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019518657A Active JP6742515B2 (en) 2017-05-17 2017-05-17 CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD

Country Status (2)

Country Link
JP (1) JP6742515B2 (en)
WO (1) WO2018211613A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021002338A1 (en) * 2019-07-03 2021-01-07

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04345285A (en) * 1991-05-22 1992-12-01 Fuji Xerox Co Ltd Device and method for editing moving image
JP2005302100A (en) * 2004-04-08 2005-10-27 Sony Corp Information reproducing device, information reproducing method, and information reproducing program
JP4438059B2 (en) * 2004-08-24 2010-03-24 キヤノン株式会社 Image reproducing apparatus and control method thereof
JP4704972B2 (en) * 2006-07-24 2011-06-22 ルネサスエレクトロニクス株式会社 Stream editing method and stream editing apparatus
JP2009290768A (en) * 2008-05-30 2009-12-10 Toshiba Corp Video processing apparatus and video processing method
JP5687867B2 (en) * 2010-08-23 2015-03-25 Necパーソナルコンピュータ株式会社 Information processing apparatus, moving image file editing method, and program
JP6049410B2 (en) * 2012-11-09 2016-12-21 キヤノン株式会社 Image processing apparatus and image processing method
JP2014239524A (en) * 2014-08-08 2014-12-18 ヤマハ株式会社 Method for compressing moving image composed of a plurality of consecutive frames, and image processing device for performing compression encoding on moving image composed of a plurality of consecutive frames

Also Published As

Publication number Publication date
JPWO2018211613A1 (en) 2019-11-07
WO2018211613A1 (en) 2018-11-22

Similar Documents

Publication Publication Date Title
TW200412801A (en) Display of closed captioned information during video trick modes
JP6647162B2 (en) Video recording device, video reproducing device, recording method, and reproducing method
JP4577409B2 (en) Playback apparatus, playback method, program, and data structure
CN107736017B (en) Video playback device and video playback method
JP4296676B2 (en) Image recording apparatus and method, image reproducing apparatus and method, and recording medium
JP6742515B2 (en) CODED VIDEO REPRODUCTION DEVICE AND CODED VIDEO REPRODUCTION METHOD
JP2006340066A (en) Moving image encoder, moving image encoding method and recording and reproducing method
US6999090B2 (en) Data processing apparatus, data processing method, information storing medium, and computer program
JP4852453B2 (en) Recording apparatus, video reproduction apparatus, and special reproduction method thereof
JP4464255B2 (en) Video signal multiplexing apparatus, video signal multiplexing method, and video reproduction apparatus
KR100535296B1 (en) How and how to reproduce the original data of digitally encoded video film
JP4225339B2 (en) Image data processing apparatus and method, program, and recording medium
JP2002010254A (en) Feature point detection method and record reproduction device
JP4763589B2 (en) Playback device and playback method thereof
JP7435704B2 (en) Playback device, playback method, program, information processing system
JP6976219B2 (en) Video recording / playback device and video recording / playback method
US20150255119A1 (en) Display apparatus and method for editing and displaying recorded video content
JP2021166363A (en) Video reproduction device and video reproduction method
JP4288442B2 (en) Recording / reproducing apparatus and video processing method
JP4441572B2 (en) Recording device
JP2020198560A (en) Video recording/playback device and video recording/playback method
JP2021052302A (en) Picture reproduction device and picture reproduction method
JP2001268513A (en) Moving image reproducing device and moving image recording/reproducing system
JP5132789B2 (en) Video encoding apparatus and method
JP2010103795A (en) Image recording apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R150 Certificate of patent or registration of utility model

Ref document number: 6742515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150