JP2015080035A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2015080035A
JP2015080035A JP2013214816A JP2013214816A JP2015080035A JP 2015080035 A JP2015080035 A JP 2015080035A JP 2013214816 A JP2013214816 A JP 2013214816A JP 2013214816 A JP2013214816 A JP 2013214816A JP 2015080035 A JP2015080035 A JP 2015080035A
Authority
JP
Japan
Prior art keywords
image data
moving image
frame rate
image processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013214816A
Other languages
Japanese (ja)
Other versions
JP2015080035A5 (en
Inventor
考司 大垣
Koji Ogaki
考司 大垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013214816A priority Critical patent/JP2015080035A/en
Publication of JP2015080035A publication Critical patent/JP2015080035A/en
Publication of JP2015080035A5 publication Critical patent/JP2015080035A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device, capable of efficiently processing compressed moving image data, according to a display frame rate of an external display device.SOLUTION: An image processing device includes: acquisition means for acquiring hierarchically coded moving image data; decoding means for decoding the moving image data acquired by the acquisition means; output means for outputting the decoded moving image data decoded by the decoding means to an external display device; information acquisition means for acquiring information related to the display frame rate of the external display device; and control means for controlling the decoding means not to decode the data in an upper hierarchy than a hierarchy corresponding to the frame rate of the external display device included in the moving image data.

Description

本発明は、画像処理装置、画像処理方法、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、画像処理装置として、記録媒体に記録された動画データを再生して外部の表示装置に表示させる装置として、たとえば、デジタルカメラ、携帯電話、コンピュータ、ハードディスクレコーダ等が知られている。従来、これらの装置から外部の表示装置であるモニタやテレビに画像を出力するときは、HDMI(登録商標)規格、MHL規格等の規格に準拠したインタフェースを介して出力することが一般的であった。   Conventionally, as an image processing device, a digital camera, a mobile phone, a computer, a hard disk recorder, and the like are known as devices that reproduce moving image data recorded on a recording medium and display the data on an external display device. Conventionally, when an image is output from these devices to a monitor or television which is an external display device, it is generally output via an interface conforming to a standard such as the HDMI (registered trademark) standard or the MHL standard. It was.

一方、近年では、モニタやテレビの表示フレームレートを上回るフレームレートを含む様々なフレームレートでの動画撮影、再生が可能になってきている。   On the other hand, in recent years, it has become possible to shoot and reproduce moving images at various frame rates including a frame rate that exceeds the display frame rate of a monitor or television.

しかしながら、HDMI(登録商標)規格、MHL規格等の規格においては、一度接続してからは、フレームレートの切り替えが許容されていない。そのため、フレームレートの混在するようなコンテンツを再生する場合には、フレームレートを一定にしなければならなかった。   However, in standards such as the HDMI (registered trademark) standard and the MHL standard, switching of the frame rate is not permitted after the connection is made once. For this reason, when reproducing content with mixed frame rates, the frame rate must be constant.

フレームレート変換に関しては、3D映像と2D映像が混在するようなコンテンツを再生する場合に、2D映像の期間において、フレームレートを倍にすることで、3D映像のコンテンツと同じフレームレートの表示をする技術(特許文献1)が開示されている。   Regarding frame rate conversion, when playing back content that contains both 3D video and 2D video, the frame rate is doubled during the 2D video period to display the same frame rate as the 3D video content. A technique (Patent Document 1) is disclosed.

特願2010−531729号公報Japanese Patent Application No. 2010-531729

しかしながら、たとえば特許文献1の技術においては、3D映像、2D映像のフレームレートがあらかじめ決められたフレームレートであり、異なるフレームレートの画像が混在するような場合にどのようにして各画像のフレームレートを把握するか不明であった。また、たとえば、再生コンテンツ自身が圧縮されていた場合にどのようにデコードするかといった点については全く触れられていない。   However, in the technique of Patent Document 1, for example, when the frame rate of 3D video and 2D video is a predetermined frame rate and images of different frame rates are mixed, how is the frame rate of each image? It was unknown whether to grasp. Further, for example, there is no mention of how to decode the reproduced content itself when it is compressed.

そこで、本発明は、圧縮された動画データを処理する画像処理装置において、外部の表示装置の表示フレームレートに応じて、圧縮された動画データを効率よく処理することができる画像処理装置を提供することを目的とする。   Therefore, the present invention provides an image processing device that can process compressed moving image data efficiently in accordance with the display frame rate of an external display device in an image processing device that processes compressed moving image data. For the purpose.

このような目的を達成するために、本発明の画像処理装置は、階層符号化された動画データを取得する取得手段と、前記取得手段により得られた動画データを復号する復号手段と、前記復号手段により復号された動画データを外部の表示装置に出力する出力手段と、前記外部の表示装置の表示フレームレートに関する情報を取得する情報取得手段と、前記動画データに含まれる前記外部の表示装置のフレームレートに対応する階層よりも上の階層のデータを復号しないように前記復号手段を制御する制御手段とを有することを特徴とする。   In order to achieve such an object, the image processing apparatus of the present invention includes an acquisition unit that acquires hierarchically encoded moving image data, a decoding unit that decodes the moving image data obtained by the acquisition unit, and the decoding Output means for outputting the moving image data decoded by the means to an external display device, information acquisition means for acquiring information relating to the display frame rate of the external display device, and the external display device included in the moving image data And control means for controlling the decoding means so as not to decode data in a hierarchy higher than the hierarchy corresponding to the frame rate.

本発明によれば、たとえば、圧縮された動画データを処理する画像処理装置において、外部の表示装置の表示フレームレートに応じて、圧縮された動画データを効率よく処理することができる。   According to the present invention, for example, in an image processing device that processes compressed moving image data, the compressed moving image data can be efficiently processed according to the display frame rate of the external display device.

本実施例の撮像装置の構成を示す図。1 is a diagram illustrating a configuration of an imaging apparatus according to an embodiment. 本実施例のTV2000の構成を示す図。The figure which shows the structure of TV2000 of a present Example. 本実施例のシステム構成を示す図。The figure which shows the system configuration | structure of a present Example. 本実施例の動画データの例を示す図。The figure which shows the example of the moving image data of a present Example. 実施例1の動画データの再生処理を示すフロー図。FIG. 3 is a flowchart showing moving image data reproduction processing according to the first embodiment. 実施例1の動画データの再生処理を示すフロー図。FIG. 3 is a flowchart showing moving image data reproduction processing according to the first embodiment. 実施例1の動画データの再生処理を示すフロー図。FIG. 3 is a flowchart showing moving image data reproduction processing according to the first embodiment. 実施例2の動画データの再生処理を示すフロー図。FIG. 9 is a flowchart showing a moving image data reproduction process according to the second embodiment. 実施例2の動画データの再生処理を示すフロー図。FIG. 9 is a flowchart showing a moving image data reproduction process according to the second embodiment. 実施例2の動画データの再生処理を示すフロー図。FIG. 9 is a flowchart showing a moving image data reproduction process according to the second embodiment.

以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。   Hereinafter, examples of the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. The following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention.

なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されても良い。また、各機能ブロックの機能は、CPUがメモリ上に展開したコンピュータプログラムにより実行されても良い。   Note that each functional block described in the present embodiment is not necessarily separate hardware. That is, for example, the functions of some functional blocks may be executed by one piece of hardware. In addition, the function of one functional block or the functions of a plurality of functional blocks may be executed by some hardware linked operations. Further, the function of each functional block may be executed by a computer program developed on the memory by the CPU.

本実施例では、画像処理装置の例として撮像装置を説明するが、動画データを復号処理することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。   In this embodiment, an imaging apparatus will be described as an example of an image processing apparatus. However, any apparatus that can decode moving image data may be used. For example, a mobile phone, a smartphone, a tablet information terminal, a notebook information terminal, a computer, or the like may be used.

以下、このような撮像装置について説明する。   Hereinafter, such an imaging apparatus will be described.

まず、図1を用いて、本実施例の撮像装置1000の主要な構成を説明する。本実施例の撮像装置においては、H.265規格に準じた符号化方式の動画データの符号化、記録、及び再生、復号を行うことができる。また本実施例においては、一部の動画データについては、H.265規格に準じた階層符号化が施されている。図1において、内部バス1010に対してCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003が接続されている。また、入力処理部1004、出力処理部1006、端子制御部1008、記録媒体制御部1011、カメラ信号処理部1015、符号復号処理部1016が接続されている。内部バス1010に接続される各部は、内部バス1010を介して互いにデータのやりとりを行うことができる。   First, the main configuration of the imaging apparatus 1000 according to the present embodiment will be described with reference to FIG. In the image pickup apparatus of the present embodiment, H.264 is used. It is possible to perform encoding, recording, reproduction, and decoding of moving image data in an encoding method according to the H.265 standard. In this embodiment, a part of the moving image data is H.264. Hierarchical coding according to the H.265 standard is performed. In FIG. 1, a CPU (Central Processing Unit) 1001, a ROM (Read Only Memory) 1002, and a RAM (Random Access Memory) 1003 are connected to an internal bus 1010. Further, an input processing unit 1004, an output processing unit 1006, a terminal control unit 1008, a recording medium control unit 1011, a camera signal processing unit 1015, and a code decoding processing unit 1016 are connected. Each unit connected to the internal bus 1010 can exchange data with each other via the internal bus 1010.

ROM1002は、CPU1001が動作するための各種プログラムが格納される。また、フラッシュメモリなども含まれる。RAM1003は、CPU1001が動作時に必要とするプログラムや変数、作業用の一時データなどが適宜記憶される。CPU1001は、ROM1002または記憶媒体1012に格納されるプログラムに従い、RAM1003をワークメモリとして用いて、この撮像装置1000の各部を制御する。   The ROM 1002 stores various programs for the CPU 1001 to operate. A flash memory is also included. The RAM 1003 appropriately stores programs and variables necessary for the operation of the CPU 1001, temporary work data, and the like. The CPU 1001 controls each unit of the imaging apparatus 1000 using the RAM 1003 as a work memory according to a program stored in the ROM 1002 or the storage medium 1012.

光学系1013は、不図示のレンズ、フォーカス、絞り、ズーム機構及びそれらを制御するプロセッサを含むモジュール化されたたとえば撮影レンズであり、被写体の光学像を形成する。CPU1001は、制御バス1010を介して、光学系1013の、フォーカス、絞り、ズームの状態を取得、及び、制御することが出来る。撮像素子1014は、CCDやCMOS素子等の光電変換素子、A/D変換器を含み、光学像をアナログ電気信号に変換した後、デジタル信号に変換した画像信号を取得する。カメラ信号処理部1015は、CPU1001の制御に基づき、撮像素子1014で変換された画像信号に対し、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等を行う。   The optical system 1013 is a modularized photographing lens including a lens (not shown), a focus, a diaphragm, a zoom mechanism, and a processor for controlling them, and forms an optical image of a subject. The CPU 1001 can acquire and control the focus, aperture, and zoom states of the optical system 1013 via the control bus 1010. The imaging element 1014 includes a photoelectric conversion element such as a CCD or CMOS element, and an A / D converter. The image sensor 1014 converts an optical image into an analog electric signal, and then acquires an image signal converted into a digital signal. Based on the control of the CPU 1001, the camera signal processing unit 1015 performs resize processing such as predetermined pixel interpolation / reduction, color conversion, various correction processing, and the like on the image signal converted by the image sensor 1014.

符号復号処理部1016は、CPU1001の制御に基づき、カメラ信号処理部1015で処理された画像信号を所定のビットレート、フォーマット形式で圧縮符号化して動画データ、静止画データを生成する。また、再生時には、圧縮された動画データを復号する処理を行う。   Based on the control of the CPU 1001, the encoding / decoding processing unit 1016 compresses and encodes the image signal processed by the camera signal processing unit 1015 at a predetermined bit rate and format format, and generates moving image data and still image data. At the time of reproduction, a process for decoding the compressed moving image data is performed.

入力処理部1004は、操作部1005でのユーザ操作を受け付け、操作に応じた制御信号を生成し、CPU1001に供給する。例えば、操作部1005は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。また、赤外線リモコンなどの遠隔操作可能なものも含む。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。これにより、撮像装置1000に対し、ユーザ操作に応じた動作を行わせることが出来る。本実施例では、入力デバイスはタッチパネルであるとして以降説明を行う。   The input processing unit 1004 receives a user operation on the operation unit 1005, generates a control signal corresponding to the operation, and supplies the control signal to the CPU 1001. For example, the operation unit 1005 includes character information input devices such as a keyboard and pointing devices such as a mouse and a touch panel as input devices that receive user operations. In addition, remote control devices such as an infrared remote controller are also included. The touch panel is an input device that outputs coordinate information according to a position touched with respect to, for example, a planar input unit. Thereby, it is possible to cause the imaging apparatus 1000 to perform an operation according to the user operation. In this embodiment, the following description will be made assuming that the input device is a touch panel.

出力処理部1006は、CPU1001がプログラムに従い生成したGUI(Graphical User Interface)などの表示データを表示部1007に表示させる。他にもカメラ信号処理部1015もしくは符号復号処理部1016が復号した画像を、表示部1007に対して表示させる。   The output processing unit 1006 causes the display unit 1007 to display display data such as a GUI (Graphical User Interface) generated by the CPU 1001 according to the program. In addition, an image decoded by the camera signal processing unit 1015 or the code decoding processing unit 1016 is displayed on the display unit 1007.

なお、操作部1005としてタッチパネルを用いる場合、操作部1005と表示部1007とを一体的に構成することができる。例えば、タッチパネルを光の透過率が表示部1007の表示を妨げないように構成し、表示部1007の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部1007上の表示座標とを対応付けることで、恰もユーザが表示部1007上に表示された画面を直接的に操作可能であるかのようなGUIを構成することがでる。例えば、表示部1007に表示されているボタン状のGUI部品に対応する座標上で接触を検知した場合、当該ボタンが押下されたとみなし、CPU1001がボタンに対応付けられた処理を実行する事で物理キーが押下された場合と同等の機能を実現する事が可能である。以降、本実施例では、物理キーのボタン押下とボタン状GUI部品(GUIボタン)への接触検知を特に区別せず、どちらもボタンの押下として扱う。   Note that when a touch panel is used as the operation unit 1005, the operation unit 1005 and the display unit 1007 can be configured integrally. For example, the touch panel is configured so that light transmittance does not hinder display on the display portion 1007 and is attached to the upper layer of the display surface of the display portion 1007. Then, by associating the input coordinates on the touch panel with the display coordinates on the display unit 1007, a GUI is configured as if the user can directly operate the screen displayed on the display unit 1007. I get out. For example, when contact is detected on the coordinates corresponding to the button-like GUI component displayed on the display unit 1007, it is assumed that the button has been pressed, and the CPU 1001 executes the processing associated with the button to perform physical processing. It is possible to realize the same function as when the key is pressed. Hereinafter, in this embodiment, the button press of the physical key and the touch detection to the button-like GUI component (GUI button) are not particularly distinguished, and both are handled as button presses.

さらに、CPU1001はタッチパネルへの以下の操作を検出できる。タッチパネルを指やペンで触れたこと(以下、タッチダウンと称する)。タッチパネルを指やペンで触れている状態であること(以下、タッチオンと称する)。タッチパネルを指やペンで触れたまま移動していること(以下、ムーブと称する)。タッチパネルへ触れていた指やペンを離したこと(以下、タッチアップと称する)。タッチパネルに何も触れていない状態(以下、タッチオフと称する)。これらの操作や、タッチパネル上に指やペンが触れている位置座標は内部バス1010を通じてCPU1001に通知され、CPU1001は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。またタッチパネル上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。   Furthermore, the CPU 1001 can detect the following operations on the touch panel. Touching the touch panel with a finger or a pen (hereinafter referred to as touchdown). The touch panel is touched with a finger or a pen (hereinafter referred to as touch-on). The touch panel is moved while being touched with a finger or a pen (hereinafter referred to as a move). The finger or pen that was touching the touch panel is released (hereinafter referred to as touch-up). A state where nothing is touched on the touch panel (hereinafter referred to as touch-off). The CPU 1001 is notified of these operations and the position coordinates where the finger or pen touches the touch panel through the internal bus 1010, and the CPU 1001 determines what operation has been performed on the touch panel based on the notified information. . Regarding the move, the moving direction of the finger or pen moving on the touch panel can also be determined for each vertical component / horizontal component on the touch panel based on the change of the position coordinates. It is also assumed that a stroke is drawn when touch-up is performed on the touch panel through a certain move from touch-down. The operation of drawing a stroke quickly is called a flick. A flick is an operation of quickly moving a certain distance while touching a finger on the touch panel and then releasing it, in other words, an operation of quickly tracing a finger on the touch panel. If it is detected that the moving is performed at a predetermined speed or more over a predetermined distance, and a touch-up is detected as it is, it can be determined that a flick has been performed. In addition, when it is detected that the movement is performed at a predetermined distance or more and less than a predetermined speed, it is determined that the drag has been performed. The touch panel may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. .

記録媒体制御部1011は、HDDや不揮発性の半導体メモリなどの記録媒体1012が接続され、CPU1001の制御に基づき、接続された記憶媒体1012からのデータや映像ファイルの読み出しや、当該記録媒体1012に対するデータや映像ファイルの書き込みを行う。なお、記録媒体制御部1011が接続可能な記録媒体1012は、不図示のソケットなどを介して、例えばメモリカードなどの着脱可能な不揮発性の半導体メモリを接続するものとしてもよい。記録媒体1012は、撮影した映像データのほか、CPU1001の制御に必要な情報も記録することが可能である。   The recording medium control unit 1011 is connected to a recording medium 1012 such as an HDD or a non-volatile semiconductor memory. Based on the control of the CPU 1001, data and video files are read from the connected storage medium 1012 and the recording medium 1012 is read. Write data and video files. The recording medium 1012 to which the recording medium control unit 1011 can be connected may be a detachable nonvolatile semiconductor memory such as a memory card, for example, via a socket (not shown). The recording medium 1012 can record information necessary for the control of the CPU 1001 in addition to the captured video data.

端子制御部1008は、CPU1001の制御に基づき、端子1009を介して、後述するTV2000に対し、接続通知信号の送受信、後述するEDIDの読み込み、映像音声信号の出力及び、制御コマンドの送受信を行う。本実施例では、端子制御部1008で扱う映像音声信号はHDMI(登録商標)(High−Definition Multimedia Interface)規格、に準拠した信号であるとし、端子1009はHDMI(登録商標)端子とする。端子制御部1008は、図示されないEDID(Extended Display Identification Data)読み込み部を含む。EDIDとは、フレームレート、解像度等の受信可能な映像データの情報を含むHDMI(登録商標)規格が定めるSink装置(以降、実施例ではTV2000)のデバイス情報を記述したデータである。端子1009に外部装置が接続された場合、CPU1001は、端子制御部1008を介して受信したTV2000のEDIDを解析する。そして、TV2000が受信可能な信号の種類や能力情報を判定した後、判定結果に応じて映像音声信号をTV2000に対して送信する。また、本実施例における端子1009は、HDMI(登録商標)規格で定められたSource装置(以降、実施例では撮像装置1000)からTV2000への接続通知信号である+5V信号を伝送する信号線を有する。また、TV2000から撮像装置1000への接続通知信号であるHPD信号、撮像装置1000からTV2000への映像音声信号を伝送するTMDS信号、前記EDIDをそれぞれ伝送可能な信号線(不図示)を有する。   The terminal control unit 1008 transmits / receives a connection notification signal, reads EDID (to be described later), outputs a video / audio signal, and transmits / receives a control command to / from the TV 2000 (described later) through the terminal 1009 based on the control of the CPU 1001. In this embodiment, it is assumed that the video / audio signal handled by the terminal control unit 1008 conforms to the HDMI (registered trademark) (High-Definition Multimedia Interface) standard, and the terminal 1009 is an HDMI (registered trademark) terminal. The terminal control unit 1008 includes an EDID (Extended Display Identification Data) reading unit (not shown). EDID is data describing device information of a sink device (hereinafter referred to as TV2000 in the embodiment) defined by the HDMI (registered trademark) standard including receivable video data information such as frame rate and resolution. When an external device is connected to the terminal 1009, the CPU 1001 analyzes the EDID of the TV 2000 received via the terminal control unit 1008. Then, after determining the type of signal that can be received by the TV 2000 and the capability information, a video / audio signal is transmitted to the TV 2000 according to the determination result. Also, the terminal 1009 in this embodiment has a signal line for transmitting a +5 V signal that is a connection notification signal from the source device (hereinafter, the imaging device 1000 in the embodiment) defined in the HDMI (registered trademark) standard to the TV 2000. . In addition, an HPD signal that is a connection notification signal from the TV 2000 to the imaging apparatus 1000, a TMDS signal that transmits a video / audio signal from the imaging apparatus 1000 to the TV 2000, and a signal line (not shown) that can transmit the EDID are provided.

なお、音声については説明を行わなかったが、不図示のマイクにより得られた音声信号を符号化し、動画データとともに記録してもよい。また再生するときには、圧縮された音声データを復号して、不図示のスピーカから出力させる。   In addition, although description was not given about audio | voice, the audio | voice signal obtained with the microphone not shown may be encoded and recorded with moving image data. When reproducing, the compressed audio data is decoded and output from a speaker (not shown).

図2は、本発明の実施形態を適用可能なTV2000の構成を示す。チューナー2001は、アンテナ(不図示)で受信した放送波を復調し、表示部2002に復調した信号を送信する。TV2000は、端子2003を介して、HDMI(登録商標)規格に準拠した映像信号、音声信号を受信することができる。表示部2002は、復調された信号か、端子2003を介して受信した映像信号を表示する。TV2000は、図示されないEDID保存部を有し、撮像装置1000との接続を検知した場合、端子2003を介して撮像装置1000にEDIDを送信する。また、TV2000は図示されないスピーカを有し、受信した音声情報を出力することができる。EDIDには、TV2000が表示可能な画素数、表示フレームレートに関する情報が少なくとも含まれている。   FIG. 2 shows a configuration of a TV 2000 to which the embodiment of the present invention can be applied. Tuner 2001 demodulates a broadcast wave received by an antenna (not shown), and transmits the demodulated signal to display unit 2002. The TV 2000 can receive a video signal and an audio signal compliant with the HDMI (registered trademark) standard via the terminal 2003. The display unit 2002 displays a demodulated signal or a video signal received via the terminal 2003. The TV 2000 includes an EDID storage unit (not shown), and transmits an EDID to the imaging apparatus 1000 via a terminal 2003 when detecting a connection with the imaging apparatus 1000. The TV 2000 has a speaker (not shown) and can output received audio information. The EDID includes at least information on the number of pixels that can be displayed by the TV 2000 and the display frame rate.

図3は、本発明の実施例に係る通信システムの一例を示す図である。撮像装置1000はTV2000に対し、端子1009からHDMI(登録商標)規格に準拠した映像音声信号を出力する。前記出力されて映像音声信号はHDMI(登録商標)ケーブル3100を介してTV2000に伝送される。TV2000は、端子2003で映像信号、音声信号を受信し、受信した映像信号に対応する画像を表示部2002に表示し、音声信号に対応する音声をスピーカから出力する。   FIG. 3 is a diagram illustrating an example of a communication system according to an embodiment of the present invention. The imaging apparatus 1000 outputs a video / audio signal conforming to the HDMI (registered trademark) standard from the terminal 1009 to the TV 2000. The outputted video / audio signal is transmitted to the TV 2000 via the HDMI (registered trademark) cable 3100. The TV 2000 receives a video signal and an audio signal at a terminal 2003, displays an image corresponding to the received video signal on the display unit 2002, and outputs audio corresponding to the audio signal from a speaker.

図4は、本実施例において扱う、動画データのデータ構造を説明する図である。本実施例では、H.265規格(HEVC規格)に準じた符号化方式で符号化された動画データを扱う。図4に示す動画データは、特にH.265規格(HEVC規格)に準じた符号化方式で階層符号化されている。H.265規格(HEVC規格)では動画の各フレームに対応するデータはNAL(Network Abstraction Layer)ユニット単位となっている。この動画データを再生、復号する場合、NALユニットのヘッダ情報(Nal_Unit_Header)に格納されたtemporal_id情報を読み取り、レイヤーに対応する符号化データかどうかの判別を行う。なお、圧縮された動画データを復号する際には、動画データに対して、逆量子化処理、逆離散コサイン変換処理(または逆コサイン変換処理)を行う。しかし、NALユニットのヘッダ情報(Nal_Unit_Header)は、逆量子化処理、逆離散コサイン変換処理(または逆コサイン変換処理)を行わずに取得することができる。   FIG. 4 is a diagram for explaining the data structure of moving image data handled in this embodiment. In this embodiment, H. It handles moving image data encoded by an encoding method according to the H.265 standard (HEVC standard). The moving image data shown in FIG. Hierarchical encoding is performed by an encoding method according to the H.265 standard (HEVC standard). H. In the H.265 standard (HEVC standard), data corresponding to each frame of a moving image is in units of NAL (Network Abstraction Layer) units. When reproducing and decoding the moving image data, the temporal_id information stored in the NAL unit header information (Nal_Unit_Header) is read to determine whether the encoded data corresponds to the layer. Note that when the compressed moving image data is decoded, inverse quantization processing and inverse discrete cosine transform processing (or inverse cosine transform processing) are performed on the moving image data. However, the header information (Nal_Unit_Header) of the NAL unit can be obtained without performing the inverse quantization process and the inverse discrete cosine transform process (or the inverse cosine transform process).

図4において、4001、4002、4003、4004、4005、4006、4007は、それぞれが1フレームの画像データであることを示している。各フレームの画像データはそれぞれNALユニット格納される。4020、4021、4022は、HEVC規格に基づく階層構造を示している。4020がレイヤー0(temporal_id=0)、4021がレイヤー1(temporal_id=1)、4022がレイヤー2(temporal_id=2)に相当する階層すなわちレイヤーを示す。temporal_idとは、HEVC規格にて各レイヤーを指定する値の名称である。前述のように、temporal_idによりNal_Unitに対応するフレームの階層を取得することができるので、temporal_idは階層を示す情報と言える。本実施例では、CPU1001により階層情報取得が行われる。具体的には、各フレーム画像の含まれるNALユニットのヘッダにtemporal_idが格納されており、復号時に参照される。なお、HEVC規格に基づく階層符号化においては、復号対象のフレーム画像を再生するときにはそのフレーム画像と同じ階層のレイヤーまたはそれよりも低い階層のレイヤーのみを参照するように符号化されている。   In FIG. 4, reference numerals 4001, 4002, 4003, 4004, 4005, 4006, and 4007 each denote one frame of image data. The image data of each frame is stored in the NAL unit. Reference numerals 4020, 4021, and 4022 denote hierarchical structures based on the HEVC standard. Reference numeral 4020 denotes a layer 0 (temporal_id = 0), 4021 denotes a layer 1 (temporal_id = 1), and 4022 denotes a hierarchy corresponding to layer 2 (temporal_id = 2). “temporal_id” is a name of a value that designates each layer in the HEVC standard. As described above, since the hierarchy of the frame corresponding to Nal_Unit can be acquired by temporal_id, it can be said that temporal_id is information indicating the hierarchy. In this embodiment, hierarchical information acquisition is performed by the CPU 1001. Specifically, temporal_id is stored in the header of the NAL unit included in each frame image, and is referred to at the time of decoding. In the hierarchical encoding based on the HEVC standard, when a frame image to be decoded is reproduced, the encoding is performed so that only a layer in the same layer as the frame image or a layer in a lower layer is referred to.

図4において、画像データ4001、4003、4007は、temporal_id=0である。すなわち4020に対応する、レイヤー0に属する画像データである。画像データ4002、4005は、temporal_id=1である。すなわち、4021に対応する、レイヤー1に属する画像データである。画像データ4004、4006は、temporal_id=2である。すなわち、4022に対応する、レイヤー2に属する画像データである。画像データ4001、4003、4007は、符号復号処理部1016にて、レイヤー0用の圧縮率で圧縮された符号化データである。画像データ4002、4005は、符号復号処理部1016にて、レイヤー1用の圧縮率で圧縮された符号化データである。画像データ4004、4006は、符号復号処理部1016にて、レイヤー2用の圧縮率で圧縮された符号化データである。   In FIG. 4, the image data 4001, 4003, and 4007 are temporal_id = 0. That is, the image data corresponding to 4020 belongs to layer 0. The image data 4002 and 4005 are temporal_id = 1. That is, the image data belonging to layer 1 corresponds to 4021. The image data 4004 and 4006 are temporal_id = 2. That is, the image data belonging to layer 2 corresponds to 4022. Image data 4001, 4003, and 4007 are encoded data compressed at the compression rate for layer 0 by the encoding / decoding processing unit 1016. The image data 4002 and 4005 are encoded data compressed by the encoding / decoding processing unit 1016 at the compression rate for layer 1. The image data 4004 and 4006 are encoded data compressed at the compression rate for layer 2 by the encoding / decoding processing unit 1016.

画像データ4001から画像データ4007までの各画像データの表示時刻情報は、記録時に各画像データを撮像したタイミングに応じて、各画像データについて記録される。画像データ4001から画像データ4007までの各画像データの再生時は、各画像データについて記録された表示時刻情報を読み出し、表示時刻情報に沿って再生と表示を行う。   The display time information of each image data from the image data 4001 to the image data 4007 is recorded for each image data according to the timing at which each image data is captured at the time of recording. At the time of reproduction of each image data from the image data 4001 to the image data 4007, display time information recorded for each image data is read, and reproduction and display are performed along the display time information.

図4で示す動画像データは、レイヤー0 4020、レイヤー1 4021、レイヤー2 222の3階層を持つ階層構造である。再生時は、どのレイヤー以下を復号対象とするかを指定することで、再生時のフレームレートを指定することができる。図4に示したデータ構造は3階層を持つ為、3段階の再生時のフレームレート指定が可能である。   The moving image data shown in FIG. 4 has a hierarchical structure having three layers of layer 0 4020, layer 1 4021, and layer 2 222. At the time of reproduction, the frame rate at the time of reproduction can be designated by designating which layer or lower layer is the decoding target. Since the data structure shown in FIG. 4 has three layers, it is possible to specify a frame rate at the time of three-stage reproduction.

本実施例では、再生対象とするレイヤーをレイヤー0とした場合、すなわち、レイヤー0に属する、画像データ4001、4003、4007が再生対象となり、その時の通常再生時の再生フレームレートが30フレーム/秒であるとする。また、再生対象とするレイヤーをレイヤー1以下と指定した場合、画像データ4001、画像データ4002、画像データ4003、4005、4007が再生対象となる。その時の通常再生時の再生フレームレートは60フレーム/秒であるとする。再生対象とするレイヤーをレイヤー2以下と指定した場合、画像データ4001から画像データ4007までの全ての画像データが再生対象となる。ただし、指定されたレイヤーのフレームが存在しない場合、そのレイヤーに対応するフレームレートでの再生は出来ない。そのため、画像データ4001、4002、4003はレイヤー1相当のフレームレート、60フレーム/秒で再生され、4004から4007までの画像データがレイヤー2に相当するフレームレート、120フレーム/秒で再生される。   In this embodiment, when the layer to be reproduced is layer 0, that is, image data 4001, 4003, and 4007 belonging to layer 0 are to be reproduced, and the reproduction frame rate during normal reproduction at that time is 30 frames / second. Suppose that If the layer to be played back is designated as layer 1 or lower, the image data 4001, the image data 4002, and the image data 4003, 4005, 4007 are played back. It is assumed that the playback frame rate during normal playback at that time is 60 frames / second. When the layer to be reproduced is designated as layer 2 or lower, all the image data from the image data 4001 to the image data 4007 are to be reproduced. However, if there is no frame for the specified layer, playback at the frame rate corresponding to that layer is not possible. Therefore, the image data 4001, 4002, and 4003 are reproduced at a frame rate equivalent to layer 1, 60 frames / second, and the image data from 4004 to 4007 are reproduced at a frame rate equivalent to layer 2, 120 frames / second.

この様に本実施例で取り扱う動画データは、レイヤーの指定により再生フレームレートを切りかえることができる動画データである。   As described above, the moving image data handled in the present embodiment is moving image data whose playback frame rate can be switched by specifying a layer.

次に、本実施例の撮像装置1000の動作について説明する。図5、図6、図7は、撮像装置1000のCPU1001にて実施される処理の手順を説明するフローチャートである。   Next, the operation of the imaging apparatus 1000 according to the present embodiment will be described. 5, 6, and 7 are flowcharts illustrating a procedure of processing performed by the CPU 1001 of the imaging apparatus 1000.

図5は、動画データの再生前に実施される処理の手順を説明するフローチャートである。なお、再生前処理は、電源投入後に、ユーザの操作が入力されない状態で自動的に開始してもよいし、撮像装置1000を再生モードに切り替えたときに開始してもよいし、TV2000(外部の表示装置)と接続したときに行われてもよい。また、再生モードにおいて、再生対象の動画データが選択されたとき、複数の動画データの再生順序を指定するプレイリストが指定されたときに行われてもよい。電源投入後、再生モードに切り替えたとき、または外部の表示装置に接続したときは、再生対象の動画データは記録媒体1012に記録されているすべての動画データであるものとする。また、動画データが選択されたとき、プレイリストが指定されたときは、再生される動画データが再生対象の動画データとなる。   FIG. 5 is a flowchart for explaining a procedure of processing performed before reproduction of moving image data. It should be noted that the pre-reproduction process may be started automatically after the power is turned on in a state where no user operation is input, may be started when the imaging apparatus 1000 is switched to the reproduction mode, or the TV 2000 (external It may be performed when connected to the display device. Further, in the playback mode, it may be performed when the moving image data to be played back is selected, or when a playlist that specifies the playback order of the plurality of moving image data is specified. It is assumed that the moving image data to be reproduced is all the moving image data recorded on the recording medium 1012 when the playback mode is switched to after the power is turned on or when an external display device is connected. Further, when moving image data is selected and a playlist is specified, the reproduced moving image data becomes the moving image data to be reproduced.

S5000において、CPU1001は再生前処理を開始する。   In step S5000, the CPU 1001 starts pre-reproduction processing.

S5001において、CPU1001は、記録媒体1012に記録されている動画データのtemporal_idとフレームレートの対応関係を示したデータを読み出すように記録媒体制御部1011を制御する。temporal_idとフレームレートの対応関係を示した対応データは、たとえばAVCHD規格の定めるメタデータ記録ファイルであるクリップインフォファイルに格納されている。本実施例では、前述したように、レイヤー2 4022が120Hz、レイヤー1 4021が60Hz、レイヤー0 4020が30Hzであるとして説明を行う。   In step S <b> 5001, the CPU 1001 controls the recording medium control unit 1011 to read data indicating the correspondence between temporal_id and frame rate of moving image data recorded on the recording medium 1012. The correspondence data indicating the correspondence between temporal_id and the frame rate is stored, for example, in a clip info file which is a metadata recording file defined by the AVCHD standard. In this embodiment, as described above, layer 2 4022 is 120 Hz, layer 1 4021 is 60 Hz, and layer 0 4020 is 30 Hz.

S5002において、CPU1001は、再生対象の動画データの全区間に渡って再生可能なレイヤーに対応するtemporal_id(共通temporal_id)を取得する。前述したようにtemporal_idは、動画データの各フレームに対応するNal_Unit_Headerに格納されているため、本実施例において、CPU1001は、再生対象の動画データのNal_Unit_Headerを解析する。そして、再生対象の動画データの全区間に渡って再生可能な動画データが存在するレイヤーに対応するtemporal_idを判定する。たとえば、再生対象の動画データのtemporal_idが全区間にわたりレイヤー1に対応するidを含むが、途中でレイヤー2に対応するidを含まない場合には、レイヤー1に対応するtemporal_idが共通temporal_idとなる。図4の例では、レイヤー0 4020、レイヤー1 4021を示すtemporal_idが共通temporal_idとなる。レイヤー2 4022は、全ての区間に渡って対応する画像データが存在しないためレイヤー2 4022を示すtemporal_idは、共通temporal_idとは判定されない。以降、本実施例では、レイヤー1 4021を示すtemporal_idを、共通temporal_idとして説明する。なお、レイヤー0 4020を示すtemporal_idは、共通temporal_idになりうるので候補temporal_idと呼ぶ。候補temporal_idは複数であってもよい。   In step S <b> 5002, the CPU 1001 acquires temporal_id (common temporal_id) corresponding to a layer that can be played back over the entire section of the moving image data to be played back. As described above, temporal_id is stored in Nal_Unit_Header corresponding to each frame of the moving image data. Therefore, in this embodiment, the CPU 1001 analyzes Nal_Unit_Header of moving image data to be reproduced. Then, the temporal_id corresponding to the layer in which the video data that can be played back over the entire section of the video data to be played back is determined. For example, if the temporal_id of the moving image data to be played back includes the id corresponding to layer 1 over the entire section, but does not include the id corresponding to layer 2 in the middle, the temporal_id corresponding to layer 1 becomes the common temporal_id. In the example of FIG. 4, temporal_id indicating the layer 0 4020 and the layer 1 4021 is the common temporal_id. In Layer 2 4022, there is no corresponding image data across all sections, so temporal_id indicating Layer 2 4022 is not determined to be a common temporal_id. Hereinafter, in this embodiment, the temporal_id indicating the layer 1 4021 is described as a common temporal_id. Note that temporal_id indicating the layer 0 4020 can be a common temporal_id, and therefore is called a candidate temporal_id. There may be a plurality of candidate temporal_ids.

なお、共通temporal_idは全ての動画データを解析して判定するものとしたが、記録時に予めクリップインフォファイルなどのメタデータ記録用の領域に記録しておいてもよい。この場合は、共通temporal_idは、記録時の設定により決定されるかまたは、記録後に記録されたレイヤーの情報に基づいて判定される。   The common temporal_id is determined by analyzing all moving image data, but may be recorded in advance in a metadata recording area such as a clip info file at the time of recording. In this case, the common temporal_id is determined based on the setting at the time of recording, or is determined based on the layer information recorded after recording.

次に、S5003において、CPU1001は、S5001で読み出したtemporal_idとフレームレートの対応データとS5002で解析した共通temporal_idから、共通フレームレート(fcom)を判定する。共通フレームレート(fcom)は、全区間に渡って再生可能なフレームレートである。本実施例では、レイヤー1 4021を共通temporal_idとするので、共通フレームレート(fcom)は、レイヤー1 4021に対応するフレームレートである60Hzとなる。また、候補temporal_idに対応するフレームレート(候補フレームレート(falt))も判定する。ここでは、レイヤー0 4020に対応するフレームレートである30Hzが候補フレームレートとして判定される。判定された、共通フレームレート(fcom)、候補フレームレート(falt)ともにRAM1003に記録される。そして、S5004において、再生前処理を終了する。   In step S5003, the CPU 1001 determines a common frame rate (fcom) from the correspondence between the temporal_id and the frame rate read in step S5001 and the common temporal_id analyzed in step S5002. The common frame rate (fcom) is a frame rate that can be reproduced over the entire section. In this embodiment, since the layer 1 4021 is a common temporal_id, the common frame rate (fcom) is 60 Hz, which is the frame rate corresponding to the layer 1 4021. Further, the frame rate (candidate frame rate (falt)) corresponding to the candidate temporal_id is also determined. Here, 30 Hz, which is the frame rate corresponding to layer 0 4020, is determined as the candidate frame rate. Both the determined common frame rate (fcom) and candidate frame rate (falt) are recorded in the RAM 1003. In step S5004, the pre-reproduction process ends.

図6は、撮像装置1000とTV2000がHDMI(登録商標)接続された際の処理の手順を説明するフローチャートである。   FIG. 6 is a flowchart illustrating a processing procedure when the imaging apparatus 1000 and the TV 2000 are connected via HDMI (registered trademark).

S5100において、CPU1001は、HDMI(登録商標)接続の処理を開始する。S5101において、CPU1001は、TV2000と通信を行いTV2000のEDID情報を受信し、RAM1003に書き込む。次に、S5102において、CPU1001は、S5101においてRAM1003に書き込んだEDID情報を解析し、TV2000が表示可能な表示フレームレートの情報を取得する。   In step S5100, the CPU 1001 starts an HDMI (registered trademark) connection process. In step S5101, the CPU 1001 communicates with the TV 2000, receives the EDID information of the TV 2000, and writes it in the RAM 1003. Next, in step S5102, the CPU 1001 analyzes the EDID information written in the RAM 1003 in step S5101, and acquires display frame rate information that can be displayed by the TV 2000.

次にS5103において、CPU1001は、S5102において解析したTV2000の表示フレームレートと共通フレームレート(fcom)を比較する。そして、TV2000の表示フレームレートに、共通フレームレートが含まれているか否かを判定する。共通フレームレートが含まれる場合はS5104へ、含まれない場合はS5105へ進む。   Next, in S5103, the CPU 1001 compares the display frame rate of the TV 2000 analyzed in S5102 with the common frame rate (fcom). Then, it is determined whether the display frame rate of the TV 2000 includes a common frame rate. If the common frame rate is included, the process proceeds to S5104. Otherwise, the process proceeds to S5105.

S5104において、CPU1001は、S5103で判定した共通フレームレート(fcom)で映像信号を出力するようにTV2000に通知し、HDMI(登録商標)を経由しての接続をする。   In step S5104, the CPU 1001 notifies the TV 2000 to output a video signal at the common frame rate (fcom) determined in step S5103, and connects via HDMI (registered trademark).

一方、S5105において、共通フレームレートではない候補フレームレートのうち、EDIDに含まれているか否かを判定していない候補フレームレート(falt)が存在する場合、faltをfcomとして、再度S5103の処理を実行する。全ての候補フレームレートがEDIDと比較済みの場合はS5106へ進む。   On the other hand, in S5105, if there is a candidate frame rate (falt) that is not determined to be included in the EDID among candidate frame rates that are not the common frame rate, the processing of S5103 is performed again with falt as fcom. Run. If all the candidate frame rates have been compared with EDID, the process proceeds to S5106.

S5106において、CPU1001は、TVと接続可能なフレームレートが存在しないと判定して、TV2000とのHDMI(登録商標)を経由しての接続を切断する。本ステップが実行された場合、後述するS5200〜S5208において動画データに対応するHDMI(登録商標)出力する処理は実行されない。   In step S5106, the CPU 1001 determines that there is no frame rate connectable to the TV, and disconnects the connection with the TV 2000 via HDMI (registered trademark). When this step is executed, the processing for outputting HDMI (registered trademark) corresponding to the moving image data is not executed in S5200 to S5208 described later.

最後に、S5107において、CPU1001は、HDMI(登録商標)接続処理を終了する。   Finally, in step S5107, the CPU 1001 ends the HDMI (registered trademark) connection process.

本実施例では、TV2000の表示フレームレートが60フレーム/秒であるものとして説明を行う。すなわちfcomが60フレーム/秒である。   In the present embodiment, description will be made assuming that the display frame rate of the TV 2000 is 60 frames / second. That is, fcom is 60 frames / second.

図7は、動画データの再生処理手順を説明するフローチャートである。図7のフローチャートは、動画データ再生中における処理を示したものである。   FIG. 7 is a flowchart for explaining a procedure for reproducing moving image data. The flowchart in FIG. 7 shows processing during reproduction of moving image data.

S5200において、CPU1001は、動画データの再生処理を開始する。CPU1001は、記録媒体1012から再生対象の動画データのヘッダ情報を読み出すように記録媒体制御部1011を制御する。   In step S5200, the CPU 1001 starts moving image data reproduction processing. The CPU 1001 controls the recording medium control unit 1011 so as to read out the header information of the moving image data to be reproduced from the recording medium 1012.

次に、S5201において、CPU1001は、再生対象の動画データのフレームのNal_Unit_Headerを少なくとも含む情報を記録媒体1012から読み出すように記録媒体制御部1011を制御する。次に、S5202において、CPU1001は、S5201において読み出された動画データのフレームのNal_Unit_Headerに格納されたtemporal_idを取得する。次に、S5203において、CPU1001は、図5のS5001で読み出したtemporal_idとフレームレートの対応データを用いて、S5202において読み出したtemporal_idに対応するフレームレートを判定する。   Next, in step S5201, the CPU 1001 controls the recording medium control unit 1011 to read information including at least the Nal_Unit_Header of the frame of the moving image data to be reproduced from the recording medium 1012. Next, in S5202, the CPU 1001 acquires temporal_id stored in Nal_Unit_Header of the frame of the moving image data read in S5201. In step S5203, the CPU 1001 determines the frame rate corresponding to the temporal_id read in step S5202 using the correspondence data between the temporal_id and the frame rate read in step S5001 in FIG.

次に、S5024において、CPU1001は、図6のS5103において判定された共通フレームレート(fcom)と、S5203で判定されたフレームレート(f)を比較する。そして、S5201において読み出された動画データのフレームがTV2000との接続において復号対象のフレームであるかを判定する。前述したように、共通フレームレート(fcom)は60フレーム/秒であるため、本実施例では、レイヤー1、レイヤー0に対応するtemporal_idを有するフレームであれば、復号対象のフレームとなる。S5203で判定されたフレームレート(f)が共通フレームレート(fcom)以下の場合はS5205へ進み、フレームレート(f)が共通フレームレート(fcom)より大きい場合はS5206へ進む。   Next, in S5024, the CPU 1001 compares the common frame rate (fcom) determined in S5103 of FIG. 6 with the frame rate (f) determined in S5203. Then, it is determined whether or not the frame of the moving image data read in S5201 is a decoding target frame in connection with the TV 2000. As described above, since the common frame rate (fcom) is 60 frames / second, in this embodiment, any frame having temporal_id corresponding to layer 1 and layer 0 is a frame to be decoded. If the frame rate (f) determined in S5203 is equal to or less than the common frame rate (fcom), the process proceeds to S5205. If the frame rate (f) is greater than the common frame rate (fcom), the process proceeds to S5206.

S5205では、CPU1001は、S5201において読み出したNal_Unit_Headerに対応するNal_Unitのデータを復号対象とする。CPU1001は、このNal_Unitのデータを復号するように符号復号処理部1016を制御し、復号された画像データを端子制御部1008に送信し、端子1009を介してTV2000に送信させる。なお、復号された画像データは、出力処理部1006に送信し、表示部1007に表示させてもよい。また、H.265においては、フレーム間予測符号化されていることもあるので、復号した順番と表示、出力される順番とは必ずしも一致するとは限らない。   In step S5205, the CPU 1001 sets Nal_Unit data corresponding to the Nal_Unit_Header read in step S5201 as a decoding target. The CPU 1001 controls the encoding / decoding processing unit 1016 to decode this Nal_Unit data, transmits the decoded image data to the terminal control unit 1008, and transmits the decoded image data to the TV 2000 via the terminal 1009. The decoded image data may be transmitted to the output processing unit 1006 and displayed on the display unit 1007. H. In H.265, since inter-frame predictive coding may be performed, the decoding order does not always match the display and output order.

一方S5206では、CPU1001は、S5201で読みだしたNal_Unit_Headerに対応するフレームのNal_Unitのデータを復号しないように符号復号処理部1016を制御する。なお、Nal_Unitのデータを記録媒体1012から読みだしていない場合には、S5202で読みだしたNal_Unit_Headerに対応するフレームのNal_Unitのデータ読みださないように記録媒体制御部1011を制御してもよい。   On the other hand, in S5206, the CPU 1001 controls the code decoding processing unit 1016 so as not to decode the Nal_Unit data of the frame corresponding to the Nal_Unit_Header read in S5201. Note that if the Nal_Unit data is not read from the recording medium 1012, the recording medium control unit 1011 may be controlled so that the Nal_Unit data of the frame corresponding to the Nal_Unit_Header read in S5202 is not read.

S5205、S5206の処理が終わると次に、S5207に処理を移す。S5027では、CPU1001は、SS5201で読みだしたNal_Unit_Headerに対応するNal_Unitが最後のNal_Unitである場合、再生処理が終了したと判定しS5208へ進む。一方、最後のNal_Unitでない場合、処理をS5201に移し、次のNal_Unitの処理を行う。   When the processes of S5205 and S5206 are completed, the process proceeds to S5207. In step S5027, if the Nal_Unit corresponding to the Nal_Unit_Header read in SS5201 is the last Nal_Unit, the CPU 1001 determines that the reproduction process has ended and proceeds to step S5208. On the other hand, if it is not the last Nal_Unit, the process moves to S5201, and the next Nal_Unit is processed.

最後に、S5208において、CPU1001は再生処理を終了する。   Finally, in S5208, the CPU 1001 ends the reproduction process.

以上のように、本実施例の撮像装置は、階層符号化された動画データを記録媒体から取得し、取得された動画データを復号して、対応する画像データを外部の表示装置に出力させる撮像装置である。そして、本実施例の撮像装置は、動画データの各フレームの対応する階層情報を取得し、外部の表示装置の表示フレームレートに対応する階層よりも上の階層のフレームに対応するデータを復号しないようにする。そのため、本実施例の撮像装置は、外部の表示装置の表示フレームレートに応じて、圧縮された動画データを効率よく処理することができる。また、外部の表示装置に対する出力フレームレートを切り替えないようにすることもできる。   As described above, the imaging apparatus according to the present embodiment acquires moving image data that is hierarchically encoded from a recording medium, decodes the acquired moving image data, and outputs corresponding image data to an external display device. Device. Then, the imaging apparatus according to the present embodiment acquires hierarchical information corresponding to each frame of the moving image data, and does not decode data corresponding to a frame higher than the hierarchy corresponding to the display frame rate of the external display device. Like that. Therefore, the imaging apparatus of the present embodiment can efficiently process the compressed moving image data in accordance with the display frame rate of the external display device. It is also possible not to switch the output frame rate for an external display device.

なお、実施例1においては、1つの動画ファイルの再生処理に関する動作を説明したが、再生対象は1ファイルに限らない。複数の動画ファイルをグルーピングしたプレイリスト等でもよいし、再生可能な全映像データ、例えば動画を一覧表示するインデックス画面に表示されている全動画等、を対象としてもよい。その場合、共通temporal_idの検索処理の範囲を、プレイリストに含まれる全ファイルの動画データ、もしくは、再生可能な全ファイルに含まれる全映像データとする。   In the first embodiment, the operation related to the playback processing of one moving image file has been described. However, the playback target is not limited to one file. It may be a playlist in which a plurality of moving image files are grouped, or all reproducible video data, for example, all moving images displayed on an index screen displaying a list of moving images. In this case, the search range of the common temporal_id is set to the moving image data of all files included in the playlist or all video data included in all reproducible files.

次に、実施例2について説明する。   Next, Example 2 will be described.

実施例2においても、撮像装置について説明する。なお、実施例2は、実施例1と同様のブロック構成、システム構成、データ構成であるものとして説明を行う。すなわち、実施例2においても、図1〜図4は共通であるので説明を省略する。   In the second embodiment, an imaging apparatus will be described. The second embodiment will be described as having the same block configuration, system configuration, and data configuration as the first embodiment. That is, also in Example 2, since FIGS. 1-4 is common, description is abbreviate | omitted.

次に、実施例2における撮像装置1000の動作について説明する。図8、図9、図10は、撮像装置1000のCPU1001にて実施される処理の手順を説明するフローチャートである。   Next, the operation of the imaging apparatus 1000 according to the second embodiment will be described. 8, 9, and 10 are flowcharts for explaining a procedure of processes performed by the CPU 1001 of the imaging apparatus 1000.

図8は、動画データの再生前に実施される処理の手順を説明するフローチャートである。なお、再生前処理は、電源投入後に、ユーザの操作が入力されない状態で自動的に開始してもよいし、撮像装置1000を再生モードに切り替えたときに開始してもよいし、TV2000(外部の表示装置)と接続したときに行われてもよい。また、再生モードにおいて、再生対象の動画データが選択されたとき、複数の動画データの再生順序を指定するプレイリストが指定されたときに行われてもよい。電源投入後、再生モードに切り替えたとき、または外部の表示装置に接続したときは、再生対象の動画データは記録媒体1012に記録されているすべての動画データであるものとする。また、動画データが選択されたとき、プレイリストが指定されたときは、再生される動画データが再生対象の動画データとなる。   FIG. 8 is a flowchart for explaining a procedure of processing performed before reproduction of moving image data. It should be noted that the pre-reproduction process may be started automatically after the power is turned on in a state where no user operation is input, may be started when the imaging apparatus 1000 is switched to the reproduction mode, or the TV 2000 (external It may be performed when connected to the display device. Further, in the playback mode, it may be performed when the moving image data to be played back is selected, or when a playlist that specifies the playback order of the plurality of moving image data is specified. It is assumed that the moving image data to be reproduced is all the moving image data recorded on the recording medium 1012 when the playback mode is switched to after the power is turned on or when an external display device is connected. Further, when moving image data is selected and a playlist is specified, the reproduced moving image data becomes the moving image data to be reproduced.

S6000において、CPU1001は再生前処理を開始する。   In step S6000, the CPU 1001 starts pre-reproduction processing.

S6001において、CPU1001は、記録媒体1012に記録されている動画データのtemporal_idとフレームレートの対応関係を示したデータを読み出すように記録媒体制御部1011を制御する。temporal_idとフレームレートの対応関係を示した対応データは、たとえばAVCHD規格の定めるメタデータ記録ファイルであるクリップインフォファイルに格納されている。本実施例では、前述したように、レイヤー2 4022が120Hz、レイヤー1 4021が60Hz、レイヤー0 4020が30Hzであるとして説明を行う。   In step S <b> 6001, the CPU 1001 controls the recording medium control unit 1011 to read data indicating the correspondence between temporal_id and frame rate of moving image data recorded on the recording medium 1012. The correspondence data indicating the correspondence between temporal_id and the frame rate is stored, for example, in a clip info file which is a metadata recording file defined by the AVCHD standard. In this embodiment, as described above, layer 2 4022 is 120 Hz, layer 1 4021 is 60 Hz, and layer 0 4020 is 30 Hz.

S6002において、CPU1001は、再生対象の動画データの全区間のうち、最も階層の深い(フレームレートの高い再生の場合に表示される)レイヤーに対応するtemporal_id(最大temporal_id)を取得する。前述したようにtemporal_idは、動画データの各フレームに対応するNal_Unit_Headerに格納されているため、本実施例において、CPU1001は、再生対象の動画データのNal_Unit_Headerを解析する。そして、再生対象の動画データの全区間のうち最も階層の深い(フレームレートの高い再生の場合に表示される)レイヤーに対応するtemporal_id(最大temporal_id)を判定する。たとえば、図4の例では、再生対象の動画データのtemporal_idの最大はレイヤー2に対応するtemporal_idである。   In step S <b> 6002, the CPU 1001 acquires temporal_id (maximum temporal_id) corresponding to the deepest layer (displayed in the case of playback with a high frame rate) of all sections of the moving image data to be played. As described above, temporal_id is stored in Nal_Unit_Header corresponding to each frame of the moving image data. Therefore, in this embodiment, the CPU 1001 analyzes Nal_Unit_Header of moving image data to be reproduced. Then, the temporal_id (maximum temporal_id) corresponding to the deepest layer (displayed in the case of reproduction with a high frame rate) of all sections of the moving image data to be reproduced is determined. For example, in the example of FIG. 4, the maximum temporal_id of the moving image data to be reproduced is temporal_id corresponding to layer 2.

なお、最大temporal_idは全ての動画データを解析して判定するものとしたが、記録時に予めクリップインフォファイルなどのメタデータ記録用の領域に記録しておいてもよい。この場合は、最大temporal_idは、記録時の設定により決定されるかまたは、記録後に記録されたレイヤーの情報に基づいて判定される。なお、実施例2においても、最大temporal_idよりも低いレイヤーのtemporal_idを候補temporal_idとする。   The maximum temporal_id is determined by analyzing all moving image data, but may be recorded in advance in a metadata recording area such as a clip info file at the time of recording. In this case, the maximum temporal_id is determined by the setting at the time of recording, or is determined based on the layer information recorded after recording. Also in the second embodiment, a temporal_id of a layer lower than the maximum temporal_id is set as a candidate temporal_id.

次に、S6003において、CPU1001は、S6001で読み出したtemporal_idとフレームレートの対応データとS6002で解析した最大temporal_idから、最大フレームレート(fmax)を判定する。本実施例では、レイヤー2 4022を最大temporal_idとするので、最大フレームレート(fmax)は、レイヤー2 4022に対応するフレームレートである120Hzとなる。また、候補temporal_idに対応するフレームレート(候補フレームレート(falt))も判定する。ここでは、レイヤー1 4021に対応するフレームレートである60Hzが候補フレームレートとして判定される。また、レイヤー0 4020に対応するフレームレートである30Hzも候補フレームレートである。なお、最大フレームレート(fmax)、候補フレームレート(falt)ともにRAM1003に記録される。そして、S6004において、再生前処理を終了する。   In step S6003, the CPU 1001 determines the maximum frame rate (fmax) from the correspondence between the temporal_id and the frame rate read in step S6001 and the maximum temporal_id analyzed in step S6002. In this embodiment, since layer 2 4022 is set to the maximum temporal_id, the maximum frame rate (fmax) is 120 Hz, which is the frame rate corresponding to layer 2 4022. Further, the frame rate (candidate frame rate (falt)) corresponding to the candidate temporal_id is also determined. Here, 60 Hz, which is the frame rate corresponding to layer 1 4021, is determined as the candidate frame rate. Further, 30 Hz which is a frame rate corresponding to layer 0 4020 is also a candidate frame rate. Both the maximum frame rate (fmax) and the candidate frame rate (falt) are recorded in the RAM 1003. In step S6004, the pre-reproduction process is terminated.

図9は、撮像装置1000とTV2000がHDMI(登録商標)接続された際の処理の手順を説明するフローチャートである。   FIG. 9 is a flowchart illustrating a processing procedure when the imaging apparatus 1000 and the TV 2000 are connected via HDMI (registered trademark).

S6100において、CPU1001は、HDMI(登録商標)接続の処理を開始する。S6101において、CPU1001は、TV2000と通信を行いTV2000のEDID情報を受信し、RAM1003に書き込む。次に、S6102において、CPU1001は、S6101においてRAM1003に書き込んだEDID情報を解析し、TV2000が表示可能な表示フレームレートの情報を取得する。   In step S6100, the CPU 1001 starts an HDMI (registered trademark) connection process. In step S6101, the CPU 1001 communicates with the TV 2000, receives the EDID information of the TV 2000, and writes it in the RAM 1003. Next, in step S6102, the CPU 1001 analyzes the EDID information written in the RAM 1003 in step S6101, and acquires display frame rate information that can be displayed by the TV 2000.

次にS6103において、CPU1001は、S6102において解析したTV2000の表示フレームレートと最大フレームレート(fmax)を比較する。そして、TV2000の表示フレームレートに、最大フレームレートが含まれているか否かを判定する。最大フレームレートが含まれる場合はS6104へ、含まれない場合はS5105へ進む。   In step S6103, the CPU 1001 compares the display frame rate of the TV 2000 analyzed in step S6102 with the maximum frame rate (fmax). Then, it is determined whether or not the maximum frame rate is included in the display frame rate of the TV 2000. If the maximum frame rate is included, the process proceeds to S6104. If not, the process proceeds to S5105.

S6104において、CPU1001は、S6103で判定した最大フレームレート(fmax)で映像信号を出力するようにTV2000に通知し、HDMI(登録商標)を経由しての接続をする。   In step S6104, the CPU 1001 notifies the TV 2000 to output a video signal at the maximum frame rate (fmax) determined in step S6103, and connects via HDMI (registered trademark).

一方、S6105において、最大フレームレート(fmax)ではない候補フレームレートのうち、EDIDに含まれているか否かを判定していない候補フレームレート(falt)が存在する場合、faltをfmaxとして、再度S6103の処理を実行する。全ての候補フレームレートがEDIDと比較済みの場合はS6106へ進む。   On the other hand, in S6105, if there is a candidate frame rate (falt) that is not determined to be included in the EDID among candidate frame rates that are not the maximum frame rate (fmax), the fault is set to fmax and S6103 is again performed. Execute the process. If all candidate frame rates have been compared with EDID, the process advances to step S6106.

S6106において、CPU1001は、TVと接続可能なフレームレートが存在しないと判定して、TV2000とのHDMI(登録商標)を経由しての接続を切断する。本ステップが実行された場合、後述するS6200〜S6208において動画データに対応するHDMI(登録商標)出力する処理は実行されない。   In step S6106, the CPU 1001 determines that there is no frame rate that can be connected to the TV, and disconnects the connection with the TV 2000 via HDMI (registered trademark). When this step is executed, the processing for outputting HDMI (registered trademark) corresponding to the moving image data is not executed in S6200 to S6208 described later.

最後に、S6107において、CPU1001は、HDMI(登録商標)接続処理を終了する。   Finally, in step S6107, the CPU 1001 ends the HDMI (registered trademark) connection process.

本実施例では、TV2000の表示フレームレートが120フレーム/秒であるものとして説明を行う。すなわちfmaxが120フレーム/秒である。   In the present embodiment, description will be made assuming that the display frame rate of the TV 2000 is 120 frames / second. That is, fmax is 120 frames / second.

図10は、動画データの再生処理手順を説明するフローチャートである。図10のフローチャートは、動画データ再生中における処理を示したものである。   FIG. 10 is a flowchart for explaining the procedure for reproducing moving image data. The flowchart in FIG. 10 shows processing during reproduction of moving image data.

S6200において、CPU1001は、動画データの再生処理を開始する。CPU1001は、記録媒体1012から再生対象の動画データのヘッダ情報を読み出すように記録媒体制御部1011を制御する。   In step S6200, the CPU 1001 starts reproduction processing of moving image data. The CPU 1001 controls the recording medium control unit 1011 so as to read out the header information of the moving image data to be reproduced from the recording medium 1012.

次に、S6201において、CPU1001は、まず、最初のフレームに対応するNal_Unitを記録媒体1012から読み出すように記録媒体制御部1011を制御する。そして、読みだしたNal_Unitのデータを復号するように符号復号処理部1016を制御する。CPU1001は、復号した画像データをRAM1003に格納するとともに、端子制御部1008に送信し、端子1009を経由してTV2000に送信させる。なお、このとき、CPU1001は、Nal_Unit_Headerに格納されたtemporal_idを読み出して、図8のS6001で読み出したtemporal_idとフレームレートの対応データを用いて、対応するフレームレートを判定する。これを直前のフレームのフレームレート(fprev)としてRAM1003に格納しておく。   In step S <b> 6201, the CPU 1001 first controls the recording medium control unit 1011 to read Nal_Unit corresponding to the first frame from the recording medium 1012. Then, the encoding / decoding processing unit 1016 is controlled so as to decode the read Nal_Unit data. The CPU 1001 stores the decoded image data in the RAM 1003, transmits it to the terminal control unit 1008, and transmits it to the TV 2000 via the terminal 1009. At this time, the CPU 1001 reads temporal_id stored in Nal_Unit_Header, and determines the corresponding frame rate using the correspondence data between temporal_id and the frame rate read in S6001 of FIG. This is stored in the RAM 1003 as the frame rate (fprev) of the immediately preceding frame.

次に、S6202において、次のフレームに対応するNal_Unitを記録媒体1012から読み出すように記録媒体制御部1011を制御する。そして、読みだした次のフレームのNal_Unitのデータを復号するように符号復号処理部1016を制御し、CPU1001は、復号した画像データをRAM1003に格納する。   Next, in step S6202, the recording medium control unit 1011 is controlled to read Nal_Unit corresponding to the next frame from the recording medium 1012. Then, the encoding / decoding processing unit 1016 is controlled so as to decode the read Nal_Unit data of the next frame, and the CPU 1001 stores the decoded image data in the RAM 1003.

次に、S6203において、S6202で読み出したフレームのNal_UnitのNal_UnitHeaderに格納されたtemporal_idを読みだす。そして、S6204において、CPU1001は、読み出したtemporal_idをS6001で読み出したtemporal_idとフレームレートの対応データを用いてtemporal_idに対応するフレームレート(f)を判定する。すなわち、この時点で、直前のフレームのフレームレート(fprev)と、現在のフレームのフレームレート(f)が存在する。   Next, in S6203, temporal_id stored in Nal_UnitHeader of Nal_Unit of the frame read in S6202 is read. In step S6204, the CPU 1001 determines the frame rate (f) corresponding to the temporal_id using the correspondence between the temporal_id read in step S6001 and the data corresponding to the frame rate. That is, at this time, there is a frame rate (fprev) of the immediately preceding frame and a frame rate (f) of the current frame.

次に、S6205において、CPU1001は、まず現在のフレームのフレームレート(f)と、最大フレームレート(fmax)を比較する。そして、現在フレームレート(f)が最大フレームレート(fmax)よりも小さい場合には、処理をS6206に移し、現在フレームレート(f)が最大フレームレート(fmax)よりも小さくない場合は、処理をS6209に移す。   In step S6205, the CPU 1001 first compares the frame rate (f) of the current frame with the maximum frame rate (fmax). If the current frame rate (f) is smaller than the maximum frame rate (fmax), the process proceeds to S6206. If the current frame rate (f) is not smaller than the maximum frame rate (fmax), the process is performed. Move to S6209.

S6206において、CPU1001は、直前のフレームのフレームレート(fprev)と、現在のフレームのフレームレート(f)を比較し、出力すべきダミー映像のフレーム数を計算する。実施例2の場合、例えば、画像データ4002のフレームレート(f)は60フレーム/秒であり、直前の画像データである4001のフレームレート(fprev)は30フレーム/秒である。この場合、図4に示す映像データの階層構造から、120フレーム/秒 相当のフレームレートで映像信号を出力するためには、レイヤー2 4022に対応する画像データが1枚不足している事が判定できる。この場合、ダミー繰り返し回数は1となる。   In step S6206, the CPU 1001 compares the frame rate (fprev) of the previous frame with the frame rate (f) of the current frame, and calculates the number of dummy video frames to be output. In the case of the second embodiment, for example, the frame rate (f) of the image data 4002 is 60 frames / second, and the frame rate (fprev) of the immediately preceding image data 4001 is 30 frames / second. In this case, it is determined from the hierarchical structure of the video data shown in FIG. 4 that one image data corresponding to layer 2 4022 is insufficient in order to output a video signal at a frame rate equivalent to 120 frames / second. it can. In this case, the number of dummy repetitions is 1.

S6207において、CPU1001は、RAM1003に記憶された直前のフレームの画像データをダミーの画像データとしてバス1001を介して端子制御部1008へ送信する。端子制御部1008へ送信された映像データは、端子1009を介してTV2000へ送信される。   In step S6207, the CPU 1001 transmits the image data of the immediately previous frame stored in the RAM 1003 as dummy image data to the terminal control unit 1008 via the bus 1001. The video data transmitted to the terminal control unit 1008 is transmitted to the TV 2000 via the terminal 1009.

次に、S6208において、CPU1001は、繰り返し回数を1減算し、減算した結果が0の場合、S6210へ進む。1以上の場合、S6207へ進む。   Next, in S6208, the CPU 1001 subtracts 1 from the number of repetitions, and if the subtraction result is 0, the CPU 1001 proceeds to S6210. If 1 or more, the process advances to step S6207.

一方、S6209において、CPU1001は、S6103において判定した最大フレームレート(fmax)とS6204において読み出したフレームレート(f)を比較し、fがfmaxより大きい場合はS6211へ進み、fがfmax以下の場合はS6210へ進む。すなわち、最大フレームレート(fmax)よりも高いフレームレートに対応するフレームの画像データはTV2000に出力しないようにするのである。なお、このフレームに対応するNal_Unitのデータについては、復号しないようにしてもよいし、記録媒体1012から読みださないようにしてもよい。   On the other hand, in S6209, the CPU 1001 compares the maximum frame rate (fmax) determined in S6103 with the frame rate (f) read in S6204. If f is greater than fmax, the process proceeds to S6211. The process proceeds to S6210. That is, image data of a frame corresponding to a frame rate higher than the maximum frame rate (fmax) is not output to the TV 2000. Note that Nal_Unit data corresponding to this frame may not be decoded or may not be read from the recording medium 1012.

S6210において、CPU1001は、現画像データをバス1001を介して端子制御部1008送信する。端子制御部1008へ送信されたが図データは、端子1009を介してTV2000へ送信される。   In step S 6210, the CPU 1001 transmits the current image data via the bus 1001 to the terminal control unit 1008. Although transmitted to the terminal control unit 1008, the diagram data is transmitted to the TV 2000 via the terminal 1009.

S6211において、CPU1001は、ステップ6202において読み出したNal_Unitが再生対象のNal_Unitのうち最後のNal_Unitであるか否かを判定する。最後のNal_Unitである場合、再生処理が終了したと判定しS6212へ進む、最後のNal_Unitでない場合、処理をS6202に戻し、さらに次のNal_Unitの処理をする。S6211において、CPU1001は、再生処理を終了する。   In step S6211, the CPU 1001 determines whether the Nal_Unit read in step 6202 is the last Nal_Unit of the playback target Nal_Units. If it is the last Nal_Unit, it is determined that the reproduction process has been completed, and the process proceeds to S6212. If it is not the last Nal_Unit, the process returns to S6202, and the next Nal_Unit is further processed. In step S6211, the CPU 1001 ends the reproduction process.

尚、S6206において求めたダミーフレーム数は現画像データと前画像データの表示間隔から計算してもよい。例えば、実施例2の場合、レイヤー1 4021の再生フレームレートが60フレーム/秒であるため、画像データ4001を前画像データ、画像データ4002を現画像データとすると、2つの画像データの再生間隔は約16.6ms(t1)となる。一方、最大フレームレートは120フレーム/秒であり、その場合の画像データの表示間隔は約8.3ms(t2)となるため、式:(t1/t2)−1を用いてダミーフレームの数1を求める事ができる。   Note that the number of dummy frames obtained in S6206 may be calculated from the display interval between the current image data and the previous image data. For example, in the second embodiment, since the playback frame rate of layer 1 4021 is 60 frames / second, if the image data 4001 is the previous image data and the image data 4002 is the current image data, the playback interval between the two image data is This is about 16.6 ms (t1). On the other hand, the maximum frame rate is 120 frames / second, and the display interval of the image data in this case is about 8.3 ms (t2). Therefore, the number of dummy frames is 1 using the formula: (t1 / t2) -1. Can be requested.

以上のように、本実施例によれば、指定されたレイヤーに対応する画像データが存在しない場合、直前の画像データを繰り返しTV2000へ送信する。このようにすることで、TV2000に対する見掛け上のフレームレートを指定されたレイヤーに対応するフレームレートに合わせる事ができる。その結果、HDMI(登録商標)出力される信号のフレームレート変更を抑制し、その結果として動画再生中の予期しないHDMI(登録商標)接続の中断を回避可能となる。   As described above, according to the present embodiment, when there is no image data corresponding to the designated layer, the immediately preceding image data is repeatedly transmitted to the TV 2000. In this way, the apparent frame rate for the TV 2000 can be matched with the frame rate corresponding to the designated layer. As a result, it is possible to suppress a change in the frame rate of a signal output from HDMI (registered trademark), and as a result, it is possible to avoid an unexpected interruption of HDMI (registered trademark) connection during reproduction of a moving image.

また、本実施例の撮像装置は、階層符号化された動画データを記録媒体から取得し、取得された動画データを復号して、対応する画像データを外部の表示装置に出力させる撮像装置である。そして、本実施例の撮像装置は、動画データの各フレームの対応する階層情報を取得し、外部の表示装置の表示フレームレートに対応する階層よりも上の階層のフレームに対応するデータを復号しないようにする。これは、たとえばS6209の処理に対応する。そのため、本実施例の撮像装置は、外部の表示装置の表示フレームレートに応じて、圧縮された動画データを効率よく処理することができる。また、外部の表示装置に対する出力フレームレートを切り替えないようにすることもできる。   The imaging apparatus according to the present exemplary embodiment is an imaging apparatus that acquires hierarchically encoded moving image data from a recording medium, decodes the acquired moving image data, and outputs corresponding image data to an external display device. . Then, the imaging apparatus according to the present embodiment acquires hierarchical information corresponding to each frame of the moving image data, and does not decode data corresponding to a frame higher than the hierarchy corresponding to the display frame rate of the external display device. Like that. This corresponds to the processing of S6209, for example. Therefore, the imaging apparatus of the present embodiment can efficiently process the compressed moving image data in accordance with the display frame rate of the external display device. It is also possible not to switch the output frame rate for an external display device.

なお、実施例2においては、1つの動画ファイルの再生処理に関する動作を説明したが、再生対象は1ファイルに限らない。複数の動画ファイルをグルーピングしたプレイリスト等でもよいし、再生可能な全映像データ、例えば動画を一覧表示するインデックス画面に表示されている全動画等、を対象としてもよい。その場合、最大temporal_idの検索処理の範囲を、プレイリストに含まれる全ファイルの動画データ、もしくは、再生可能な全ファイルに含まれる全映像データとする。   In the second embodiment, the operation related to the reproduction processing of one moving image file has been described. However, the reproduction target is not limited to one file. It may be a playlist in which a plurality of moving image files are grouped, or all reproducible video data, for example, all moving images displayed on an index screen displaying a list of moving images. In this case, the search process range of the maximum temporal_id is set to the moving image data of all files included in the playlist or all video data included in all reproducible files.

なお、実施例2の処理と、実施例1の処理を両方に実施できるようにしてもよい。   In addition, you may enable it to implement the process of Example 2 and the process of Example 1 both.

(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.

また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。   In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

Claims (12)

階層符号化された動画データを取得する取得手段と、
前記取得手段により得られた動画データを復号する復号手段と、
前記復号手段により復号された動画データを外部の表示装置に出力する出力手段と、
前記外部の表示装置の表示フレームレートに関する情報を取得する情報取得手段と、
前記動画データに含まれる前記外部の表示装置のフレームレートに対応する階層よりも上の階層のデータを復号しないように前記復号手段を制御する制御手段とを有することを特徴とする画像処理装置。
Acquisition means for acquiring video data that has been hierarchically encoded;
Decoding means for decoding moving image data obtained by the acquisition means;
Output means for outputting the moving image data decoded by the decoding means to an external display device;
Information acquisition means for acquiring information on a display frame rate of the external display device;
An image processing apparatus comprising: control means for controlling the decoding means so as not to decode data in a hierarchy higher than a hierarchy corresponding to a frame rate of the external display device included in the moving image data.
前記取得手段により取得された動画データの各フレームの階層を示す情報を取得する階層情報取得手段を有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising: a hierarchy information acquisition unit that acquires information indicating a hierarchy of each frame of the moving image data acquired by the acquisition unit. 前記階層を示す情報は、前記動画データに含まれ、前記動画データの逆量子化処理を行わずに取得することができる情報であることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the information indicating the hierarchy is information that is included in the moving image data and can be acquired without performing inverse quantization processing of the moving image data. 前記階層を示す情報は、前記動画データに含まれ、前記動画データの逆コサイン変換処理を行わずに取得することができる情報であることを特徴とする請求項2または3に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the information indicating the hierarchy is information that is included in the moving image data and can be acquired without performing an inverse cosine transform process on the moving image data. . 前記階層を示す情報は、各フレームに対応するtemporal_idであることを特徴とする請求項2から4に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the information indicating the hierarchy is temporal_id corresponding to each frame. 前記temporal_idは、各フレームに対応するNal_Unit_Headerに格納されていることを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the temporal_id is stored in a Nal_Unit_Header corresponding to each frame. 前記動画データは、H.265規格に準じた符号化方式で階層符号化された動画データであることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。   The moving image data is H.264. 7. The image processing apparatus according to claim 1, wherein the image processing apparatus is moving image data that is hierarchically encoded by an encoding method according to the H.265 standard. 前記取得手段は、記録媒体から動画データを取得し、
前記制御手段は、前記記録媒体に記録されている動画データのすべての動画データについて、前記外部の表示装置の表示フレームレートに対応する階層より上の階層のフレームに対応するデータを復号しないように前記復号手段を制御する請求項1から7のいずれか1項に記載の画像処理装置。
The acquisition means acquires moving image data from a recording medium,
The control means does not decode data corresponding to frames in a layer higher than the layer corresponding to the display frame rate of the external display device for all the moving image data recorded in the recording medium. The image processing apparatus according to claim 1, wherein the decoding unit is controlled.
前記取得手段は、動画データの再生順を示すプレイリストに対応する動画データを取得し、
前記階層情報取得手段は、前記プレイリストに対応する動画データの階層を示す情報を取得し、
前記制御手段は、前記プレイリストに対応する動画データについて、前記外部の表示装置の表示フレームレートに対応する階層より上の階層のフレームに対応するデータを復号しないように前記復号手段を制御することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
The acquisition means acquires video data corresponding to a playlist indicating the playback order of the video data,
The hierarchy information acquisition means acquires information indicating a hierarchy of video data corresponding to the playlist,
The control means controls the decoding means so as not to decode data corresponding to a frame higher than a hierarchy corresponding to a display frame rate of the external display device for moving picture data corresponding to the playlist. The image processing apparatus according to claim 1, wherein:
前記制御手段は、前記外部の表示装置が接続されている場合に、前記外部の表示装置の表示フレームレートに対応する階層より上の階層のフレームに対応するデータを復号しないように前記復号手段を制御することを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。   The control means controls the decoding means so as not to decode data corresponding to a frame in a layer higher than a layer corresponding to a display frame rate of the external display device when the external display device is connected. The image processing apparatus according to claim 1, wherein the image processing apparatus is controlled. 階層符号化された動画データを取得する取得工程と、
前記取得工程で得られた動画データを復号する復号工程と、
前記復号工程で復号された動画データを外部の表示装置に出力する出力工程と、
前記外部の表示装置の表示フレームレートに関する情報を取得する情報取得工程と、
前記復号工程において、前記動画データに含まれる前記外部の表示装置の表示フレームレートに対応する階層よりも上の階層のデータを復号しないように制御すること有することを特徴とする画像処理方法。
An acquisition step of acquiring hierarchically encoded video data;
A decoding step of decoding the moving image data obtained in the acquisition step;
An output step of outputting the video data decoded in the decoding step to an external display device;
An information acquisition step of acquiring information regarding a display frame rate of the external display device;
The image processing method according to claim 1, wherein in the decoding step, control is performed so that data in a layer higher than a layer corresponding to a display frame rate of the external display device included in the moving image data is not decoded.
コンピュータを請求項1から10のいずれか1項に記載の各手段として動作させるためのコンピュータプログラム。
The computer program for operating a computer as each means of any one of Claim 1 to 10.
JP2013214816A 2013-10-15 2013-10-15 Image processing device, image processing method and program Pending JP2015080035A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013214816A JP2015080035A (en) 2013-10-15 2013-10-15 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013214816A JP2015080035A (en) 2013-10-15 2013-10-15 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2015080035A true JP2015080035A (en) 2015-04-23
JP2015080035A5 JP2015080035A5 (en) 2016-12-01

Family

ID=53011147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013214816A Pending JP2015080035A (en) 2013-10-15 2013-10-15 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2015080035A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017085495A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Picture processing system, picture processing method and program
US11348487B2 (en) 2019-07-22 2022-05-31 Samsung Display Co., Ltd. Display module

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088244A (en) * 2002-08-23 2004-03-18 Sony Corp Image processing apparatus, image processing method, image frame data storage medium, and computer program
WO2008050806A1 (en) * 2006-10-24 2008-05-02 Sony Corporation Imaging device and reproduction control device
JP2008109245A (en) * 2006-10-24 2008-05-08 Sony Corp Recording and reproducing device
JP2009177527A (en) * 2008-01-24 2009-08-06 Panasonic Corp Image recording device, image reproducing device, recording medium, and program
WO2009098933A1 (en) * 2008-02-04 2009-08-13 Sony Corporation Video signal transmission device, video signal transmission method, video signal reception device, and video signal reception method
WO2010038409A1 (en) * 2008-09-30 2010-04-08 パナソニック株式会社 Reproduction device, recording medium, and integrated circuit
WO2010058354A1 (en) * 2008-11-24 2010-05-27 Koninklijke Philips Electronics N.V. 3d video reproduction matching the output format to the 3d processing ability of a display
JP2011217272A (en) * 2010-04-01 2011-10-27 Canon Inc Video processing apparatus, and method of controlling the same
WO2012111331A1 (en) * 2011-02-16 2012-08-23 パナソニック株式会社 Video encoding method and video decoding method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088244A (en) * 2002-08-23 2004-03-18 Sony Corp Image processing apparatus, image processing method, image frame data storage medium, and computer program
WO2008050806A1 (en) * 2006-10-24 2008-05-02 Sony Corporation Imaging device and reproduction control device
JP2008109245A (en) * 2006-10-24 2008-05-08 Sony Corp Recording and reproducing device
JP2009177527A (en) * 2008-01-24 2009-08-06 Panasonic Corp Image recording device, image reproducing device, recording medium, and program
WO2009098933A1 (en) * 2008-02-04 2009-08-13 Sony Corporation Video signal transmission device, video signal transmission method, video signal reception device, and video signal reception method
WO2010038409A1 (en) * 2008-09-30 2010-04-08 パナソニック株式会社 Reproduction device, recording medium, and integrated circuit
WO2010058354A1 (en) * 2008-11-24 2010-05-27 Koninklijke Philips Electronics N.V. 3d video reproduction matching the output format to the 3d processing ability of a display
JP2011217272A (en) * 2010-04-01 2011-10-27 Canon Inc Video processing apparatus, and method of controlling the same
WO2012111331A1 (en) * 2011-02-16 2012-08-23 パナソニック株式会社 Video encoding method and video decoding method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017085495A (en) * 2015-10-30 2017-05-18 キヤノン株式会社 Picture processing system, picture processing method and program
US10419769B2 (en) 2015-10-30 2019-09-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and non-transitory computer readable storage medium
US11348487B2 (en) 2019-07-22 2022-05-31 Samsung Display Co., Ltd. Display module
US11749139B2 (en) 2019-07-22 2023-09-05 Samsung Display Co., Ltd. Display module

Similar Documents

Publication Publication Date Title
US8253794B2 (en) Image processing apparatus and image display method
KR20150056381A (en) Appratus and method for processing image
US9071806B2 (en) Reproducing apparatus
KR101256107B1 (en) Vison monitoring method of dvr
JP2015080035A (en) Image processing device, image processing method and program
US10200616B2 (en) Image processing device that performs image rotation processing, method of controlling the same, and storage medium
US9538119B2 (en) Method of capturing moving picture and apparatus for reproducing moving picture
US10783670B2 (en) Method for compression of 360 degree content and electronic device thereof
CN111263211B (en) Method for caching video data and terminal equipment
JP2015080034A (en) Image processing device, image processing method and program
US10474743B2 (en) Method for presenting notifications when annotations are received from a remote device
US11877021B2 (en) Transmitting device and receiving device
CN114710707A (en) Display device and video thumbnail acquisition method
CN113141480A (en) Screen recording method, device, equipment and storage medium
US10440218B2 (en) Image processing apparatus, control method for image processing apparatus, and non-transitory computer-readable recording medium
JP6257197B2 (en) Information processing apparatus, control method therefor, program, and storage medium
KR102557384B1 (en) Electronic apparatus and control method thereof
CN112188269A (en) Video playing method and device and video generating method and device
JP2017112455A (en) Information processing unit
US9521327B2 (en) Image capturing apparatus, method for controlling image capturing apparatus, display control apparatus, and method for controlling display control apparatus
US20160189747A1 (en) Imaging apparatus and control method thereof
US20240095387A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
WO2015020436A1 (en) Image reproducing apparatus, sever and image reproducing methods thereof
WO2018180662A1 (en) Image processing device and image processing method
JP2016065958A (en) Display control system, display control device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180320