JP2015080035A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2015080035A JP2015080035A JP2013214816A JP2013214816A JP2015080035A JP 2015080035 A JP2015080035 A JP 2015080035A JP 2013214816 A JP2013214816 A JP 2013214816A JP 2013214816 A JP2013214816 A JP 2013214816A JP 2015080035 A JP2015080035 A JP 2015080035A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- moving image
- frame rate
- image processing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像処理装置、画像処理方法、プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
従来、画像処理装置として、記録媒体に記録された動画データを再生して外部の表示装置に表示させる装置として、たとえば、デジタルカメラ、携帯電話、コンピュータ、ハードディスクレコーダ等が知られている。従来、これらの装置から外部の表示装置であるモニタやテレビに画像を出力するときは、HDMI(登録商標)規格、MHL規格等の規格に準拠したインタフェースを介して出力することが一般的であった。 Conventionally, as an image processing device, a digital camera, a mobile phone, a computer, a hard disk recorder, and the like are known as devices that reproduce moving image data recorded on a recording medium and display the data on an external display device. Conventionally, when an image is output from these devices to a monitor or television which is an external display device, it is generally output via an interface conforming to a standard such as the HDMI (registered trademark) standard or the MHL standard. It was.
一方、近年では、モニタやテレビの表示フレームレートを上回るフレームレートを含む様々なフレームレートでの動画撮影、再生が可能になってきている。 On the other hand, in recent years, it has become possible to shoot and reproduce moving images at various frame rates including a frame rate that exceeds the display frame rate of a monitor or television.
しかしながら、HDMI(登録商標)規格、MHL規格等の規格においては、一度接続してからは、フレームレートの切り替えが許容されていない。そのため、フレームレートの混在するようなコンテンツを再生する場合には、フレームレートを一定にしなければならなかった。 However, in standards such as the HDMI (registered trademark) standard and the MHL standard, switching of the frame rate is not permitted after the connection is made once. For this reason, when reproducing content with mixed frame rates, the frame rate must be constant.
フレームレート変換に関しては、3D映像と2D映像が混在するようなコンテンツを再生する場合に、2D映像の期間において、フレームレートを倍にすることで、3D映像のコンテンツと同じフレームレートの表示をする技術(特許文献1)が開示されている。 Regarding frame rate conversion, when playing back content that contains both 3D video and 2D video, the frame rate is doubled during the 2D video period to display the same frame rate as the 3D video content. A technique (Patent Document 1) is disclosed.
しかしながら、たとえば特許文献1の技術においては、3D映像、2D映像のフレームレートがあらかじめ決められたフレームレートであり、異なるフレームレートの画像が混在するような場合にどのようにして各画像のフレームレートを把握するか不明であった。また、たとえば、再生コンテンツ自身が圧縮されていた場合にどのようにデコードするかといった点については全く触れられていない。
However, in the technique of
そこで、本発明は、圧縮された動画データを処理する画像処理装置において、外部の表示装置の表示フレームレートに応じて、圧縮された動画データを効率よく処理することができる画像処理装置を提供することを目的とする。 Therefore, the present invention provides an image processing device that can process compressed moving image data efficiently in accordance with the display frame rate of an external display device in an image processing device that processes compressed moving image data. For the purpose.
このような目的を達成するために、本発明の画像処理装置は、階層符号化された動画データを取得する取得手段と、前記取得手段により得られた動画データを復号する復号手段と、前記復号手段により復号された動画データを外部の表示装置に出力する出力手段と、前記外部の表示装置の表示フレームレートに関する情報を取得する情報取得手段と、前記動画データに含まれる前記外部の表示装置のフレームレートに対応する階層よりも上の階層のデータを復号しないように前記復号手段を制御する制御手段とを有することを特徴とする。 In order to achieve such an object, the image processing apparatus of the present invention includes an acquisition unit that acquires hierarchically encoded moving image data, a decoding unit that decodes the moving image data obtained by the acquisition unit, and the decoding Output means for outputting the moving image data decoded by the means to an external display device, information acquisition means for acquiring information relating to the display frame rate of the external display device, and the external display device included in the moving image data And control means for controlling the decoding means so as not to decode data in a hierarchy higher than the hierarchy corresponding to the frame rate.
本発明によれば、たとえば、圧縮された動画データを処理する画像処理装置において、外部の表示装置の表示フレームレートに応じて、圧縮された動画データを効率よく処理することができる。 According to the present invention, for example, in an image processing device that processes compressed moving image data, the compressed moving image data can be efficiently processed according to the display frame rate of the external display device.
以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。 Hereinafter, examples of the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. The following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are not necessarily essential to the solution means of the invention.
なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されても良い。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されても良い。また、各機能ブロックの機能は、CPUがメモリ上に展開したコンピュータプログラムにより実行されても良い。 Note that each functional block described in the present embodiment is not necessarily separate hardware. That is, for example, the functions of some functional blocks may be executed by one piece of hardware. In addition, the function of one functional block or the functions of a plurality of functional blocks may be executed by some hardware linked operations. Further, the function of each functional block may be executed by a computer program developed on the memory by the CPU.
本実施例では、画像処理装置の例として撮像装置を説明するが、動画データを復号処理することができる装置であればどのような装置でも良い。たとえば、携帯電話、スマートフォン、タブレット型情報端末、ノート型情報端末、コンピュータ等であってもよい。 In this embodiment, an imaging apparatus will be described as an example of an image processing apparatus. However, any apparatus that can decode moving image data may be used. For example, a mobile phone, a smartphone, a tablet information terminal, a notebook information terminal, a computer, or the like may be used.
以下、このような撮像装置について説明する。 Hereinafter, such an imaging apparatus will be described.
まず、図1を用いて、本実施例の撮像装置1000の主要な構成を説明する。本実施例の撮像装置においては、H.265規格に準じた符号化方式の動画データの符号化、記録、及び再生、復号を行うことができる。また本実施例においては、一部の動画データについては、H.265規格に準じた階層符号化が施されている。図1において、内部バス1010に対してCPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003が接続されている。また、入力処理部1004、出力処理部1006、端子制御部1008、記録媒体制御部1011、カメラ信号処理部1015、符号復号処理部1016が接続されている。内部バス1010に接続される各部は、内部バス1010を介して互いにデータのやりとりを行うことができる。
First, the main configuration of the
ROM1002は、CPU1001が動作するための各種プログラムが格納される。また、フラッシュメモリなども含まれる。RAM1003は、CPU1001が動作時に必要とするプログラムや変数、作業用の一時データなどが適宜記憶される。CPU1001は、ROM1002または記憶媒体1012に格納されるプログラムに従い、RAM1003をワークメモリとして用いて、この撮像装置1000の各部を制御する。
The
光学系1013は、不図示のレンズ、フォーカス、絞り、ズーム機構及びそれらを制御するプロセッサを含むモジュール化されたたとえば撮影レンズであり、被写体の光学像を形成する。CPU1001は、制御バス1010を介して、光学系1013の、フォーカス、絞り、ズームの状態を取得、及び、制御することが出来る。撮像素子1014は、CCDやCMOS素子等の光電変換素子、A/D変換器を含み、光学像をアナログ電気信号に変換した後、デジタル信号に変換した画像信号を取得する。カメラ信号処理部1015は、CPU1001の制御に基づき、撮像素子1014で変換された画像信号に対し、所定の画素補間・縮小といったリサイズ処理や色変換、各種補正処理等を行う。
The
符号復号処理部1016は、CPU1001の制御に基づき、カメラ信号処理部1015で処理された画像信号を所定のビットレート、フォーマット形式で圧縮符号化して動画データ、静止画データを生成する。また、再生時には、圧縮された動画データを復号する処理を行う。
Based on the control of the
入力処理部1004は、操作部1005でのユーザ操作を受け付け、操作に応じた制御信号を生成し、CPU1001に供給する。例えば、操作部1005は、ユーザ操作を受け付ける入力デバイスとして、キーボードといった文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイスなどを有する。また、赤外線リモコンなどの遠隔操作可能なものも含む。なお、タッチパネルは、例えば平面的に構成された入力部に対して接触された位置に応じた座標情報が出力されるようにした入力デバイスである。これにより、撮像装置1000に対し、ユーザ操作に応じた動作を行わせることが出来る。本実施例では、入力デバイスはタッチパネルであるとして以降説明を行う。
The
出力処理部1006は、CPU1001がプログラムに従い生成したGUI(Graphical User Interface)などの表示データを表示部1007に表示させる。他にもカメラ信号処理部1015もしくは符号復号処理部1016が復号した画像を、表示部1007に対して表示させる。
The output processing unit 1006 causes the
なお、操作部1005としてタッチパネルを用いる場合、操作部1005と表示部1007とを一体的に構成することができる。例えば、タッチパネルを光の透過率が表示部1007の表示を妨げないように構成し、表示部1007の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部1007上の表示座標とを対応付けることで、恰もユーザが表示部1007上に表示された画面を直接的に操作可能であるかのようなGUIを構成することがでる。例えば、表示部1007に表示されているボタン状のGUI部品に対応する座標上で接触を検知した場合、当該ボタンが押下されたとみなし、CPU1001がボタンに対応付けられた処理を実行する事で物理キーが押下された場合と同等の機能を実現する事が可能である。以降、本実施例では、物理キーのボタン押下とボタン状GUI部品(GUIボタン)への接触検知を特に区別せず、どちらもボタンの押下として扱う。
Note that when a touch panel is used as the
さらに、CPU1001はタッチパネルへの以下の操作を検出できる。タッチパネルを指やペンで触れたこと(以下、タッチダウンと称する)。タッチパネルを指やペンで触れている状態であること(以下、タッチオンと称する)。タッチパネルを指やペンで触れたまま移動していること(以下、ムーブと称する)。タッチパネルへ触れていた指やペンを離したこと(以下、タッチアップと称する)。タッチパネルに何も触れていない状態(以下、タッチオフと称する)。これらの操作や、タッチパネル上に指やペンが触れている位置座標は内部バス1010を通じてCPU1001に通知され、CPU1001は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。ムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。またタッチパネル上をタッチダウンから一定のムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指を触れたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
Furthermore, the
記録媒体制御部1011は、HDDや不揮発性の半導体メモリなどの記録媒体1012が接続され、CPU1001の制御に基づき、接続された記憶媒体1012からのデータや映像ファイルの読み出しや、当該記録媒体1012に対するデータや映像ファイルの書き込みを行う。なお、記録媒体制御部1011が接続可能な記録媒体1012は、不図示のソケットなどを介して、例えばメモリカードなどの着脱可能な不揮発性の半導体メモリを接続するものとしてもよい。記録媒体1012は、撮影した映像データのほか、CPU1001の制御に必要な情報も記録することが可能である。
The recording
端子制御部1008は、CPU1001の制御に基づき、端子1009を介して、後述するTV2000に対し、接続通知信号の送受信、後述するEDIDの読み込み、映像音声信号の出力及び、制御コマンドの送受信を行う。本実施例では、端子制御部1008で扱う映像音声信号はHDMI(登録商標)(High−Definition Multimedia Interface)規格、に準拠した信号であるとし、端子1009はHDMI(登録商標)端子とする。端子制御部1008は、図示されないEDID(Extended Display Identification Data)読み込み部を含む。EDIDとは、フレームレート、解像度等の受信可能な映像データの情報を含むHDMI(登録商標)規格が定めるSink装置(以降、実施例ではTV2000)のデバイス情報を記述したデータである。端子1009に外部装置が接続された場合、CPU1001は、端子制御部1008を介して受信したTV2000のEDIDを解析する。そして、TV2000が受信可能な信号の種類や能力情報を判定した後、判定結果に応じて映像音声信号をTV2000に対して送信する。また、本実施例における端子1009は、HDMI(登録商標)規格で定められたSource装置(以降、実施例では撮像装置1000)からTV2000への接続通知信号である+5V信号を伝送する信号線を有する。また、TV2000から撮像装置1000への接続通知信号であるHPD信号、撮像装置1000からTV2000への映像音声信号を伝送するTMDS信号、前記EDIDをそれぞれ伝送可能な信号線(不図示)を有する。
The
なお、音声については説明を行わなかったが、不図示のマイクにより得られた音声信号を符号化し、動画データとともに記録してもよい。また再生するときには、圧縮された音声データを復号して、不図示のスピーカから出力させる。 In addition, although description was not given about audio | voice, the audio | voice signal obtained with the microphone not shown may be encoded and recorded with moving image data. When reproducing, the compressed audio data is decoded and output from a speaker (not shown).
図2は、本発明の実施形態を適用可能なTV2000の構成を示す。チューナー2001は、アンテナ(不図示)で受信した放送波を復調し、表示部2002に復調した信号を送信する。TV2000は、端子2003を介して、HDMI(登録商標)規格に準拠した映像信号、音声信号を受信することができる。表示部2002は、復調された信号か、端子2003を介して受信した映像信号を表示する。TV2000は、図示されないEDID保存部を有し、撮像装置1000との接続を検知した場合、端子2003を介して撮像装置1000にEDIDを送信する。また、TV2000は図示されないスピーカを有し、受信した音声情報を出力することができる。EDIDには、TV2000が表示可能な画素数、表示フレームレートに関する情報が少なくとも含まれている。
FIG. 2 shows a configuration of a
図3は、本発明の実施例に係る通信システムの一例を示す図である。撮像装置1000はTV2000に対し、端子1009からHDMI(登録商標)規格に準拠した映像音声信号を出力する。前記出力されて映像音声信号はHDMI(登録商標)ケーブル3100を介してTV2000に伝送される。TV2000は、端子2003で映像信号、音声信号を受信し、受信した映像信号に対応する画像を表示部2002に表示し、音声信号に対応する音声をスピーカから出力する。
FIG. 3 is a diagram illustrating an example of a communication system according to an embodiment of the present invention. The
図4は、本実施例において扱う、動画データのデータ構造を説明する図である。本実施例では、H.265規格(HEVC規格)に準じた符号化方式で符号化された動画データを扱う。図4に示す動画データは、特にH.265規格(HEVC規格)に準じた符号化方式で階層符号化されている。H.265規格(HEVC規格)では動画の各フレームに対応するデータはNAL(Network Abstraction Layer)ユニット単位となっている。この動画データを再生、復号する場合、NALユニットのヘッダ情報(Nal_Unit_Header)に格納されたtemporal_id情報を読み取り、レイヤーに対応する符号化データかどうかの判別を行う。なお、圧縮された動画データを復号する際には、動画データに対して、逆量子化処理、逆離散コサイン変換処理(または逆コサイン変換処理)を行う。しかし、NALユニットのヘッダ情報(Nal_Unit_Header)は、逆量子化処理、逆離散コサイン変換処理(または逆コサイン変換処理)を行わずに取得することができる。 FIG. 4 is a diagram for explaining the data structure of moving image data handled in this embodiment. In this embodiment, H. It handles moving image data encoded by an encoding method according to the H.265 standard (HEVC standard). The moving image data shown in FIG. Hierarchical encoding is performed by an encoding method according to the H.265 standard (HEVC standard). H. In the H.265 standard (HEVC standard), data corresponding to each frame of a moving image is in units of NAL (Network Abstraction Layer) units. When reproducing and decoding the moving image data, the temporal_id information stored in the NAL unit header information (Nal_Unit_Header) is read to determine whether the encoded data corresponds to the layer. Note that when the compressed moving image data is decoded, inverse quantization processing and inverse discrete cosine transform processing (or inverse cosine transform processing) are performed on the moving image data. However, the header information (Nal_Unit_Header) of the NAL unit can be obtained without performing the inverse quantization process and the inverse discrete cosine transform process (or the inverse cosine transform process).
図4において、4001、4002、4003、4004、4005、4006、4007は、それぞれが1フレームの画像データであることを示している。各フレームの画像データはそれぞれNALユニット格納される。4020、4021、4022は、HEVC規格に基づく階層構造を示している。4020がレイヤー0(temporal_id=0)、4021がレイヤー1(temporal_id=1)、4022がレイヤー2(temporal_id=2)に相当する階層すなわちレイヤーを示す。temporal_idとは、HEVC規格にて各レイヤーを指定する値の名称である。前述のように、temporal_idによりNal_Unitに対応するフレームの階層を取得することができるので、temporal_idは階層を示す情報と言える。本実施例では、CPU1001により階層情報取得が行われる。具体的には、各フレーム画像の含まれるNALユニットのヘッダにtemporal_idが格納されており、復号時に参照される。なお、HEVC規格に基づく階層符号化においては、復号対象のフレーム画像を再生するときにはそのフレーム画像と同じ階層のレイヤーまたはそれよりも低い階層のレイヤーのみを参照するように符号化されている。
In FIG. 4,
図4において、画像データ4001、4003、4007は、temporal_id=0である。すなわち4020に対応する、レイヤー0に属する画像データである。画像データ4002、4005は、temporal_id=1である。すなわち、4021に対応する、レイヤー1に属する画像データである。画像データ4004、4006は、temporal_id=2である。すなわち、4022に対応する、レイヤー2に属する画像データである。画像データ4001、4003、4007は、符号復号処理部1016にて、レイヤー0用の圧縮率で圧縮された符号化データである。画像データ4002、4005は、符号復号処理部1016にて、レイヤー1用の圧縮率で圧縮された符号化データである。画像データ4004、4006は、符号復号処理部1016にて、レイヤー2用の圧縮率で圧縮された符号化データである。
In FIG. 4, the
画像データ4001から画像データ4007までの各画像データの表示時刻情報は、記録時に各画像データを撮像したタイミングに応じて、各画像データについて記録される。画像データ4001から画像データ4007までの各画像データの再生時は、各画像データについて記録された表示時刻情報を読み出し、表示時刻情報に沿って再生と表示を行う。
The display time information of each image data from the
図4で示す動画像データは、レイヤー0 4020、レイヤー1 4021、レイヤー2 222の3階層を持つ階層構造である。再生時は、どのレイヤー以下を復号対象とするかを指定することで、再生時のフレームレートを指定することができる。図4に示したデータ構造は3階層を持つ為、3段階の再生時のフレームレート指定が可能である。
The moving image data shown in FIG. 4 has a hierarchical structure having three layers of layer 0 4020,
本実施例では、再生対象とするレイヤーをレイヤー0とした場合、すなわち、レイヤー0に属する、画像データ4001、4003、4007が再生対象となり、その時の通常再生時の再生フレームレートが30フレーム/秒であるとする。また、再生対象とするレイヤーをレイヤー1以下と指定した場合、画像データ4001、画像データ4002、画像データ4003、4005、4007が再生対象となる。その時の通常再生時の再生フレームレートは60フレーム/秒であるとする。再生対象とするレイヤーをレイヤー2以下と指定した場合、画像データ4001から画像データ4007までの全ての画像データが再生対象となる。ただし、指定されたレイヤーのフレームが存在しない場合、そのレイヤーに対応するフレームレートでの再生は出来ない。そのため、画像データ4001、4002、4003はレイヤー1相当のフレームレート、60フレーム/秒で再生され、4004から4007までの画像データがレイヤー2に相当するフレームレート、120フレーム/秒で再生される。
In this embodiment, when the layer to be reproduced is layer 0, that is,
この様に本実施例で取り扱う動画データは、レイヤーの指定により再生フレームレートを切りかえることができる動画データである。 As described above, the moving image data handled in the present embodiment is moving image data whose playback frame rate can be switched by specifying a layer.
次に、本実施例の撮像装置1000の動作について説明する。図5、図6、図7は、撮像装置1000のCPU1001にて実施される処理の手順を説明するフローチャートである。
Next, the operation of the
図5は、動画データの再生前に実施される処理の手順を説明するフローチャートである。なお、再生前処理は、電源投入後に、ユーザの操作が入力されない状態で自動的に開始してもよいし、撮像装置1000を再生モードに切り替えたときに開始してもよいし、TV2000(外部の表示装置)と接続したときに行われてもよい。また、再生モードにおいて、再生対象の動画データが選択されたとき、複数の動画データの再生順序を指定するプレイリストが指定されたときに行われてもよい。電源投入後、再生モードに切り替えたとき、または外部の表示装置に接続したときは、再生対象の動画データは記録媒体1012に記録されているすべての動画データであるものとする。また、動画データが選択されたとき、プレイリストが指定されたときは、再生される動画データが再生対象の動画データとなる。
FIG. 5 is a flowchart for explaining a procedure of processing performed before reproduction of moving image data. It should be noted that the pre-reproduction process may be started automatically after the power is turned on in a state where no user operation is input, may be started when the
S5000において、CPU1001は再生前処理を開始する。
In step S5000, the
S5001において、CPU1001は、記録媒体1012に記録されている動画データのtemporal_idとフレームレートの対応関係を示したデータを読み出すように記録媒体制御部1011を制御する。temporal_idとフレームレートの対応関係を示した対応データは、たとえばAVCHD規格の定めるメタデータ記録ファイルであるクリップインフォファイルに格納されている。本実施例では、前述したように、レイヤー2 4022が120Hz、レイヤー1 4021が60Hz、レイヤー0 4020が30Hzであるとして説明を行う。
In step S <b> 5001, the
S5002において、CPU1001は、再生対象の動画データの全区間に渡って再生可能なレイヤーに対応するtemporal_id(共通temporal_id)を取得する。前述したようにtemporal_idは、動画データの各フレームに対応するNal_Unit_Headerに格納されているため、本実施例において、CPU1001は、再生対象の動画データのNal_Unit_Headerを解析する。そして、再生対象の動画データの全区間に渡って再生可能な動画データが存在するレイヤーに対応するtemporal_idを判定する。たとえば、再生対象の動画データのtemporal_idが全区間にわたりレイヤー1に対応するidを含むが、途中でレイヤー2に対応するidを含まない場合には、レイヤー1に対応するtemporal_idが共通temporal_idとなる。図4の例では、レイヤー0 4020、レイヤー1 4021を示すtemporal_idが共通temporal_idとなる。レイヤー2 4022は、全ての区間に渡って対応する画像データが存在しないためレイヤー2 4022を示すtemporal_idは、共通temporal_idとは判定されない。以降、本実施例では、レイヤー1 4021を示すtemporal_idを、共通temporal_idとして説明する。なお、レイヤー0 4020を示すtemporal_idは、共通temporal_idになりうるので候補temporal_idと呼ぶ。候補temporal_idは複数であってもよい。
In step S <b> 5002, the
なお、共通temporal_idは全ての動画データを解析して判定するものとしたが、記録時に予めクリップインフォファイルなどのメタデータ記録用の領域に記録しておいてもよい。この場合は、共通temporal_idは、記録時の設定により決定されるかまたは、記録後に記録されたレイヤーの情報に基づいて判定される。 The common temporal_id is determined by analyzing all moving image data, but may be recorded in advance in a metadata recording area such as a clip info file at the time of recording. In this case, the common temporal_id is determined based on the setting at the time of recording, or is determined based on the layer information recorded after recording.
次に、S5003において、CPU1001は、S5001で読み出したtemporal_idとフレームレートの対応データとS5002で解析した共通temporal_idから、共通フレームレート(fcom)を判定する。共通フレームレート(fcom)は、全区間に渡って再生可能なフレームレートである。本実施例では、レイヤー1 4021を共通temporal_idとするので、共通フレームレート(fcom)は、レイヤー1 4021に対応するフレームレートである60Hzとなる。また、候補temporal_idに対応するフレームレート(候補フレームレート(falt))も判定する。ここでは、レイヤー0 4020に対応するフレームレートである30Hzが候補フレームレートとして判定される。判定された、共通フレームレート(fcom)、候補フレームレート(falt)ともにRAM1003に記録される。そして、S5004において、再生前処理を終了する。
In step S5003, the
図6は、撮像装置1000とTV2000がHDMI(登録商標)接続された際の処理の手順を説明するフローチャートである。
FIG. 6 is a flowchart illustrating a processing procedure when the
S5100において、CPU1001は、HDMI(登録商標)接続の処理を開始する。S5101において、CPU1001は、TV2000と通信を行いTV2000のEDID情報を受信し、RAM1003に書き込む。次に、S5102において、CPU1001は、S5101においてRAM1003に書き込んだEDID情報を解析し、TV2000が表示可能な表示フレームレートの情報を取得する。
In step S5100, the
次にS5103において、CPU1001は、S5102において解析したTV2000の表示フレームレートと共通フレームレート(fcom)を比較する。そして、TV2000の表示フレームレートに、共通フレームレートが含まれているか否かを判定する。共通フレームレートが含まれる場合はS5104へ、含まれない場合はS5105へ進む。
Next, in S5103, the
S5104において、CPU1001は、S5103で判定した共通フレームレート(fcom)で映像信号を出力するようにTV2000に通知し、HDMI(登録商標)を経由しての接続をする。
In step S5104, the
一方、S5105において、共通フレームレートではない候補フレームレートのうち、EDIDに含まれているか否かを判定していない候補フレームレート(falt)が存在する場合、faltをfcomとして、再度S5103の処理を実行する。全ての候補フレームレートがEDIDと比較済みの場合はS5106へ進む。 On the other hand, in S5105, if there is a candidate frame rate (falt) that is not determined to be included in the EDID among candidate frame rates that are not the common frame rate, the processing of S5103 is performed again with falt as fcom. Run. If all the candidate frame rates have been compared with EDID, the process proceeds to S5106.
S5106において、CPU1001は、TVと接続可能なフレームレートが存在しないと判定して、TV2000とのHDMI(登録商標)を経由しての接続を切断する。本ステップが実行された場合、後述するS5200〜S5208において動画データに対応するHDMI(登録商標)出力する処理は実行されない。
In step S5106, the
最後に、S5107において、CPU1001は、HDMI(登録商標)接続処理を終了する。
Finally, in step S5107, the
本実施例では、TV2000の表示フレームレートが60フレーム/秒であるものとして説明を行う。すなわちfcomが60フレーム/秒である。
In the present embodiment, description will be made assuming that the display frame rate of the
図7は、動画データの再生処理手順を説明するフローチャートである。図7のフローチャートは、動画データ再生中における処理を示したものである。 FIG. 7 is a flowchart for explaining a procedure for reproducing moving image data. The flowchart in FIG. 7 shows processing during reproduction of moving image data.
S5200において、CPU1001は、動画データの再生処理を開始する。CPU1001は、記録媒体1012から再生対象の動画データのヘッダ情報を読み出すように記録媒体制御部1011を制御する。
In step S5200, the
次に、S5201において、CPU1001は、再生対象の動画データのフレームのNal_Unit_Headerを少なくとも含む情報を記録媒体1012から読み出すように記録媒体制御部1011を制御する。次に、S5202において、CPU1001は、S5201において読み出された動画データのフレームのNal_Unit_Headerに格納されたtemporal_idを取得する。次に、S5203において、CPU1001は、図5のS5001で読み出したtemporal_idとフレームレートの対応データを用いて、S5202において読み出したtemporal_idに対応するフレームレートを判定する。
Next, in step S5201, the
次に、S5024において、CPU1001は、図6のS5103において判定された共通フレームレート(fcom)と、S5203で判定されたフレームレート(f)を比較する。そして、S5201において読み出された動画データのフレームがTV2000との接続において復号対象のフレームであるかを判定する。前述したように、共通フレームレート(fcom)は60フレーム/秒であるため、本実施例では、レイヤー1、レイヤー0に対応するtemporal_idを有するフレームであれば、復号対象のフレームとなる。S5203で判定されたフレームレート(f)が共通フレームレート(fcom)以下の場合はS5205へ進み、フレームレート(f)が共通フレームレート(fcom)より大きい場合はS5206へ進む。
Next, in S5024, the
S5205では、CPU1001は、S5201において読み出したNal_Unit_Headerに対応するNal_Unitのデータを復号対象とする。CPU1001は、このNal_Unitのデータを復号するように符号復号処理部1016を制御し、復号された画像データを端子制御部1008に送信し、端子1009を介してTV2000に送信させる。なお、復号された画像データは、出力処理部1006に送信し、表示部1007に表示させてもよい。また、H.265においては、フレーム間予測符号化されていることもあるので、復号した順番と表示、出力される順番とは必ずしも一致するとは限らない。
In step S5205, the
一方S5206では、CPU1001は、S5201で読みだしたNal_Unit_Headerに対応するフレームのNal_Unitのデータを復号しないように符号復号処理部1016を制御する。なお、Nal_Unitのデータを記録媒体1012から読みだしていない場合には、S5202で読みだしたNal_Unit_Headerに対応するフレームのNal_Unitのデータ読みださないように記録媒体制御部1011を制御してもよい。
On the other hand, in S5206, the
S5205、S5206の処理が終わると次に、S5207に処理を移す。S5027では、CPU1001は、SS5201で読みだしたNal_Unit_Headerに対応するNal_Unitが最後のNal_Unitである場合、再生処理が終了したと判定しS5208へ進む。一方、最後のNal_Unitでない場合、処理をS5201に移し、次のNal_Unitの処理を行う。
When the processes of S5205 and S5206 are completed, the process proceeds to S5207. In step S5027, if the Nal_Unit corresponding to the Nal_Unit_Header read in SS5201 is the last Nal_Unit, the
最後に、S5208において、CPU1001は再生処理を終了する。
Finally, in S5208, the
以上のように、本実施例の撮像装置は、階層符号化された動画データを記録媒体から取得し、取得された動画データを復号して、対応する画像データを外部の表示装置に出力させる撮像装置である。そして、本実施例の撮像装置は、動画データの各フレームの対応する階層情報を取得し、外部の表示装置の表示フレームレートに対応する階層よりも上の階層のフレームに対応するデータを復号しないようにする。そのため、本実施例の撮像装置は、外部の表示装置の表示フレームレートに応じて、圧縮された動画データを効率よく処理することができる。また、外部の表示装置に対する出力フレームレートを切り替えないようにすることもできる。 As described above, the imaging apparatus according to the present embodiment acquires moving image data that is hierarchically encoded from a recording medium, decodes the acquired moving image data, and outputs corresponding image data to an external display device. Device. Then, the imaging apparatus according to the present embodiment acquires hierarchical information corresponding to each frame of the moving image data, and does not decode data corresponding to a frame higher than the hierarchy corresponding to the display frame rate of the external display device. Like that. Therefore, the imaging apparatus of the present embodiment can efficiently process the compressed moving image data in accordance with the display frame rate of the external display device. It is also possible not to switch the output frame rate for an external display device.
なお、実施例1においては、1つの動画ファイルの再生処理に関する動作を説明したが、再生対象は1ファイルに限らない。複数の動画ファイルをグルーピングしたプレイリスト等でもよいし、再生可能な全映像データ、例えば動画を一覧表示するインデックス画面に表示されている全動画等、を対象としてもよい。その場合、共通temporal_idの検索処理の範囲を、プレイリストに含まれる全ファイルの動画データ、もしくは、再生可能な全ファイルに含まれる全映像データとする。 In the first embodiment, the operation related to the playback processing of one moving image file has been described. However, the playback target is not limited to one file. It may be a playlist in which a plurality of moving image files are grouped, or all reproducible video data, for example, all moving images displayed on an index screen displaying a list of moving images. In this case, the search range of the common temporal_id is set to the moving image data of all files included in the playlist or all video data included in all reproducible files.
次に、実施例2について説明する。 Next, Example 2 will be described.
実施例2においても、撮像装置について説明する。なお、実施例2は、実施例1と同様のブロック構成、システム構成、データ構成であるものとして説明を行う。すなわち、実施例2においても、図1〜図4は共通であるので説明を省略する。 In the second embodiment, an imaging apparatus will be described. The second embodiment will be described as having the same block configuration, system configuration, and data configuration as the first embodiment. That is, also in Example 2, since FIGS. 1-4 is common, description is abbreviate | omitted.
次に、実施例2における撮像装置1000の動作について説明する。図8、図9、図10は、撮像装置1000のCPU1001にて実施される処理の手順を説明するフローチャートである。
Next, the operation of the
図8は、動画データの再生前に実施される処理の手順を説明するフローチャートである。なお、再生前処理は、電源投入後に、ユーザの操作が入力されない状態で自動的に開始してもよいし、撮像装置1000を再生モードに切り替えたときに開始してもよいし、TV2000(外部の表示装置)と接続したときに行われてもよい。また、再生モードにおいて、再生対象の動画データが選択されたとき、複数の動画データの再生順序を指定するプレイリストが指定されたときに行われてもよい。電源投入後、再生モードに切り替えたとき、または外部の表示装置に接続したときは、再生対象の動画データは記録媒体1012に記録されているすべての動画データであるものとする。また、動画データが選択されたとき、プレイリストが指定されたときは、再生される動画データが再生対象の動画データとなる。
FIG. 8 is a flowchart for explaining a procedure of processing performed before reproduction of moving image data. It should be noted that the pre-reproduction process may be started automatically after the power is turned on in a state where no user operation is input, may be started when the
S6000において、CPU1001は再生前処理を開始する。
In step S6000, the
S6001において、CPU1001は、記録媒体1012に記録されている動画データのtemporal_idとフレームレートの対応関係を示したデータを読み出すように記録媒体制御部1011を制御する。temporal_idとフレームレートの対応関係を示した対応データは、たとえばAVCHD規格の定めるメタデータ記録ファイルであるクリップインフォファイルに格納されている。本実施例では、前述したように、レイヤー2 4022が120Hz、レイヤー1 4021が60Hz、レイヤー0 4020が30Hzであるとして説明を行う。
In step S <b> 6001, the
S6002において、CPU1001は、再生対象の動画データの全区間のうち、最も階層の深い(フレームレートの高い再生の場合に表示される)レイヤーに対応するtemporal_id(最大temporal_id)を取得する。前述したようにtemporal_idは、動画データの各フレームに対応するNal_Unit_Headerに格納されているため、本実施例において、CPU1001は、再生対象の動画データのNal_Unit_Headerを解析する。そして、再生対象の動画データの全区間のうち最も階層の深い(フレームレートの高い再生の場合に表示される)レイヤーに対応するtemporal_id(最大temporal_id)を判定する。たとえば、図4の例では、再生対象の動画データのtemporal_idの最大はレイヤー2に対応するtemporal_idである。
In step S <b> 6002, the
なお、最大temporal_idは全ての動画データを解析して判定するものとしたが、記録時に予めクリップインフォファイルなどのメタデータ記録用の領域に記録しておいてもよい。この場合は、最大temporal_idは、記録時の設定により決定されるかまたは、記録後に記録されたレイヤーの情報に基づいて判定される。なお、実施例2においても、最大temporal_idよりも低いレイヤーのtemporal_idを候補temporal_idとする。 The maximum temporal_id is determined by analyzing all moving image data, but may be recorded in advance in a metadata recording area such as a clip info file at the time of recording. In this case, the maximum temporal_id is determined by the setting at the time of recording, or is determined based on the layer information recorded after recording. Also in the second embodiment, a temporal_id of a layer lower than the maximum temporal_id is set as a candidate temporal_id.
次に、S6003において、CPU1001は、S6001で読み出したtemporal_idとフレームレートの対応データとS6002で解析した最大temporal_idから、最大フレームレート(fmax)を判定する。本実施例では、レイヤー2 4022を最大temporal_idとするので、最大フレームレート(fmax)は、レイヤー2 4022に対応するフレームレートである120Hzとなる。また、候補temporal_idに対応するフレームレート(候補フレームレート(falt))も判定する。ここでは、レイヤー1 4021に対応するフレームレートである60Hzが候補フレームレートとして判定される。また、レイヤー0 4020に対応するフレームレートである30Hzも候補フレームレートである。なお、最大フレームレート(fmax)、候補フレームレート(falt)ともにRAM1003に記録される。そして、S6004において、再生前処理を終了する。
In step S6003, the
図9は、撮像装置1000とTV2000がHDMI(登録商標)接続された際の処理の手順を説明するフローチャートである。
FIG. 9 is a flowchart illustrating a processing procedure when the
S6100において、CPU1001は、HDMI(登録商標)接続の処理を開始する。S6101において、CPU1001は、TV2000と通信を行いTV2000のEDID情報を受信し、RAM1003に書き込む。次に、S6102において、CPU1001は、S6101においてRAM1003に書き込んだEDID情報を解析し、TV2000が表示可能な表示フレームレートの情報を取得する。
In step S6100, the
次にS6103において、CPU1001は、S6102において解析したTV2000の表示フレームレートと最大フレームレート(fmax)を比較する。そして、TV2000の表示フレームレートに、最大フレームレートが含まれているか否かを判定する。最大フレームレートが含まれる場合はS6104へ、含まれない場合はS5105へ進む。
In step S6103, the
S6104において、CPU1001は、S6103で判定した最大フレームレート(fmax)で映像信号を出力するようにTV2000に通知し、HDMI(登録商標)を経由しての接続をする。
In step S6104, the
一方、S6105において、最大フレームレート(fmax)ではない候補フレームレートのうち、EDIDに含まれているか否かを判定していない候補フレームレート(falt)が存在する場合、faltをfmaxとして、再度S6103の処理を実行する。全ての候補フレームレートがEDIDと比較済みの場合はS6106へ進む。 On the other hand, in S6105, if there is a candidate frame rate (falt) that is not determined to be included in the EDID among candidate frame rates that are not the maximum frame rate (fmax), the fault is set to fmax and S6103 is again performed. Execute the process. If all candidate frame rates have been compared with EDID, the process advances to step S6106.
S6106において、CPU1001は、TVと接続可能なフレームレートが存在しないと判定して、TV2000とのHDMI(登録商標)を経由しての接続を切断する。本ステップが実行された場合、後述するS6200〜S6208において動画データに対応するHDMI(登録商標)出力する処理は実行されない。
In step S6106, the
最後に、S6107において、CPU1001は、HDMI(登録商標)接続処理を終了する。
Finally, in step S6107, the
本実施例では、TV2000の表示フレームレートが120フレーム/秒であるものとして説明を行う。すなわちfmaxが120フレーム/秒である。
In the present embodiment, description will be made assuming that the display frame rate of the
図10は、動画データの再生処理手順を説明するフローチャートである。図10のフローチャートは、動画データ再生中における処理を示したものである。 FIG. 10 is a flowchart for explaining the procedure for reproducing moving image data. The flowchart in FIG. 10 shows processing during reproduction of moving image data.
S6200において、CPU1001は、動画データの再生処理を開始する。CPU1001は、記録媒体1012から再生対象の動画データのヘッダ情報を読み出すように記録媒体制御部1011を制御する。
In step S6200, the
次に、S6201において、CPU1001は、まず、最初のフレームに対応するNal_Unitを記録媒体1012から読み出すように記録媒体制御部1011を制御する。そして、読みだしたNal_Unitのデータを復号するように符号復号処理部1016を制御する。CPU1001は、復号した画像データをRAM1003に格納するとともに、端子制御部1008に送信し、端子1009を経由してTV2000に送信させる。なお、このとき、CPU1001は、Nal_Unit_Headerに格納されたtemporal_idを読み出して、図8のS6001で読み出したtemporal_idとフレームレートの対応データを用いて、対応するフレームレートを判定する。これを直前のフレームのフレームレート(fprev)としてRAM1003に格納しておく。
In step S <b> 6201, the
次に、S6202において、次のフレームに対応するNal_Unitを記録媒体1012から読み出すように記録媒体制御部1011を制御する。そして、読みだした次のフレームのNal_Unitのデータを復号するように符号復号処理部1016を制御し、CPU1001は、復号した画像データをRAM1003に格納する。
Next, in step S6202, the recording
次に、S6203において、S6202で読み出したフレームのNal_UnitのNal_UnitHeaderに格納されたtemporal_idを読みだす。そして、S6204において、CPU1001は、読み出したtemporal_idをS6001で読み出したtemporal_idとフレームレートの対応データを用いてtemporal_idに対応するフレームレート(f)を判定する。すなわち、この時点で、直前のフレームのフレームレート(fprev)と、現在のフレームのフレームレート(f)が存在する。
Next, in S6203, temporal_id stored in Nal_UnitHeader of Nal_Unit of the frame read in S6202 is read. In step S6204, the
次に、S6205において、CPU1001は、まず現在のフレームのフレームレート(f)と、最大フレームレート(fmax)を比較する。そして、現在フレームレート(f)が最大フレームレート(fmax)よりも小さい場合には、処理をS6206に移し、現在フレームレート(f)が最大フレームレート(fmax)よりも小さくない場合は、処理をS6209に移す。
In step S6205, the
S6206において、CPU1001は、直前のフレームのフレームレート(fprev)と、現在のフレームのフレームレート(f)を比較し、出力すべきダミー映像のフレーム数を計算する。実施例2の場合、例えば、画像データ4002のフレームレート(f)は60フレーム/秒であり、直前の画像データである4001のフレームレート(fprev)は30フレーム/秒である。この場合、図4に示す映像データの階層構造から、120フレーム/秒 相当のフレームレートで映像信号を出力するためには、レイヤー2 4022に対応する画像データが1枚不足している事が判定できる。この場合、ダミー繰り返し回数は1となる。
In step S6206, the
S6207において、CPU1001は、RAM1003に記憶された直前のフレームの画像データをダミーの画像データとしてバス1001を介して端子制御部1008へ送信する。端子制御部1008へ送信された映像データは、端子1009を介してTV2000へ送信される。
In step S6207, the
次に、S6208において、CPU1001は、繰り返し回数を1減算し、減算した結果が0の場合、S6210へ進む。1以上の場合、S6207へ進む。
Next, in S6208, the
一方、S6209において、CPU1001は、S6103において判定した最大フレームレート(fmax)とS6204において読み出したフレームレート(f)を比較し、fがfmaxより大きい場合はS6211へ進み、fがfmax以下の場合はS6210へ進む。すなわち、最大フレームレート(fmax)よりも高いフレームレートに対応するフレームの画像データはTV2000に出力しないようにするのである。なお、このフレームに対応するNal_Unitのデータについては、復号しないようにしてもよいし、記録媒体1012から読みださないようにしてもよい。
On the other hand, in S6209, the
S6210において、CPU1001は、現画像データをバス1001を介して端子制御部1008送信する。端子制御部1008へ送信されたが図データは、端子1009を介してTV2000へ送信される。
In
S6211において、CPU1001は、ステップ6202において読み出したNal_Unitが再生対象のNal_Unitのうち最後のNal_Unitであるか否かを判定する。最後のNal_Unitである場合、再生処理が終了したと判定しS6212へ進む、最後のNal_Unitでない場合、処理をS6202に戻し、さらに次のNal_Unitの処理をする。S6211において、CPU1001は、再生処理を終了する。
In step S6211, the
尚、S6206において求めたダミーフレーム数は現画像データと前画像データの表示間隔から計算してもよい。例えば、実施例2の場合、レイヤー1 4021の再生フレームレートが60フレーム/秒であるため、画像データ4001を前画像データ、画像データ4002を現画像データとすると、2つの画像データの再生間隔は約16.6ms(t1)となる。一方、最大フレームレートは120フレーム/秒であり、その場合の画像データの表示間隔は約8.3ms(t2)となるため、式:(t1/t2)−1を用いてダミーフレームの数1を求める事ができる。
Note that the number of dummy frames obtained in S6206 may be calculated from the display interval between the current image data and the previous image data. For example, in the second embodiment, since the playback frame rate of
以上のように、本実施例によれば、指定されたレイヤーに対応する画像データが存在しない場合、直前の画像データを繰り返しTV2000へ送信する。このようにすることで、TV2000に対する見掛け上のフレームレートを指定されたレイヤーに対応するフレームレートに合わせる事ができる。その結果、HDMI(登録商標)出力される信号のフレームレート変更を抑制し、その結果として動画再生中の予期しないHDMI(登録商標)接続の中断を回避可能となる。
As described above, according to the present embodiment, when there is no image data corresponding to the designated layer, the immediately preceding image data is repeatedly transmitted to the
また、本実施例の撮像装置は、階層符号化された動画データを記録媒体から取得し、取得された動画データを復号して、対応する画像データを外部の表示装置に出力させる撮像装置である。そして、本実施例の撮像装置は、動画データの各フレームの対応する階層情報を取得し、外部の表示装置の表示フレームレートに対応する階層よりも上の階層のフレームに対応するデータを復号しないようにする。これは、たとえばS6209の処理に対応する。そのため、本実施例の撮像装置は、外部の表示装置の表示フレームレートに応じて、圧縮された動画データを効率よく処理することができる。また、外部の表示装置に対する出力フレームレートを切り替えないようにすることもできる。 The imaging apparatus according to the present exemplary embodiment is an imaging apparatus that acquires hierarchically encoded moving image data from a recording medium, decodes the acquired moving image data, and outputs corresponding image data to an external display device. . Then, the imaging apparatus according to the present embodiment acquires hierarchical information corresponding to each frame of the moving image data, and does not decode data corresponding to a frame higher than the hierarchy corresponding to the display frame rate of the external display device. Like that. This corresponds to the processing of S6209, for example. Therefore, the imaging apparatus of the present embodiment can efficiently process the compressed moving image data in accordance with the display frame rate of the external display device. It is also possible not to switch the output frame rate for an external display device.
なお、実施例2においては、1つの動画ファイルの再生処理に関する動作を説明したが、再生対象は1ファイルに限らない。複数の動画ファイルをグルーピングしたプレイリスト等でもよいし、再生可能な全映像データ、例えば動画を一覧表示するインデックス画面に表示されている全動画等、を対象としてもよい。その場合、最大temporal_idの検索処理の範囲を、プレイリストに含まれる全ファイルの動画データ、もしくは、再生可能な全ファイルに含まれる全映像データとする。 In the second embodiment, the operation related to the reproduction processing of one moving image file has been described. However, the reproduction target is not limited to one file. It may be a playlist in which a plurality of moving image files are grouped, or all reproducible video data, for example, all moving images displayed on an index screen displaying a list of moving images. In this case, the search process range of the maximum temporal_id is set to the moving image data of all files included in the playlist or all video data included in all reproducible files.
なお、実施例2の処理と、実施例1の処理を両方に実施できるようにしてもよい。 In addition, you may enable it to implement the process of Example 2 and the process of Example 1 both.
(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。 The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto. A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。 As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code. Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。 In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example. Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer. Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.
Claims (12)
前記取得手段により得られた動画データを復号する復号手段と、
前記復号手段により復号された動画データを外部の表示装置に出力する出力手段と、
前記外部の表示装置の表示フレームレートに関する情報を取得する情報取得手段と、
前記動画データに含まれる前記外部の表示装置のフレームレートに対応する階層よりも上の階層のデータを復号しないように前記復号手段を制御する制御手段とを有することを特徴とする画像処理装置。 Acquisition means for acquiring video data that has been hierarchically encoded;
Decoding means for decoding moving image data obtained by the acquisition means;
Output means for outputting the moving image data decoded by the decoding means to an external display device;
Information acquisition means for acquiring information on a display frame rate of the external display device;
An image processing apparatus comprising: control means for controlling the decoding means so as not to decode data in a hierarchy higher than a hierarchy corresponding to a frame rate of the external display device included in the moving image data.
前記制御手段は、前記記録媒体に記録されている動画データのすべての動画データについて、前記外部の表示装置の表示フレームレートに対応する階層より上の階層のフレームに対応するデータを復号しないように前記復号手段を制御する請求項1から7のいずれか1項に記載の画像処理装置。 The acquisition means acquires moving image data from a recording medium,
The control means does not decode data corresponding to frames in a layer higher than the layer corresponding to the display frame rate of the external display device for all the moving image data recorded in the recording medium. The image processing apparatus according to claim 1, wherein the decoding unit is controlled.
前記階層情報取得手段は、前記プレイリストに対応する動画データの階層を示す情報を取得し、
前記制御手段は、前記プレイリストに対応する動画データについて、前記外部の表示装置の表示フレームレートに対応する階層より上の階層のフレームに対応するデータを復号しないように前記復号手段を制御することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。 The acquisition means acquires video data corresponding to a playlist indicating the playback order of the video data,
The hierarchy information acquisition means acquires information indicating a hierarchy of video data corresponding to the playlist,
The control means controls the decoding means so as not to decode data corresponding to a frame higher than a hierarchy corresponding to a display frame rate of the external display device for moving picture data corresponding to the playlist. The image processing apparatus according to claim 1, wherein:
前記取得工程で得られた動画データを復号する復号工程と、
前記復号工程で復号された動画データを外部の表示装置に出力する出力工程と、
前記外部の表示装置の表示フレームレートに関する情報を取得する情報取得工程と、
前記復号工程において、前記動画データに含まれる前記外部の表示装置の表示フレームレートに対応する階層よりも上の階層のデータを復号しないように制御すること有することを特徴とする画像処理方法。 An acquisition step of acquiring hierarchically encoded video data;
A decoding step of decoding the moving image data obtained in the acquisition step;
An output step of outputting the video data decoded in the decoding step to an external display device;
An information acquisition step of acquiring information regarding a display frame rate of the external display device;
The image processing method according to claim 1, wherein in the decoding step, control is performed so that data in a layer higher than a layer corresponding to a display frame rate of the external display device included in the moving image data is not decoded.
The computer program for operating a computer as each means of any one of Claim 1 to 10.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013214816A JP2015080035A (en) | 2013-10-15 | 2013-10-15 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013214816A JP2015080035A (en) | 2013-10-15 | 2013-10-15 | Image processing device, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015080035A true JP2015080035A (en) | 2015-04-23 |
JP2015080035A5 JP2015080035A5 (en) | 2016-12-01 |
Family
ID=53011147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013214816A Pending JP2015080035A (en) | 2013-10-15 | 2013-10-15 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015080035A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017085495A (en) * | 2015-10-30 | 2017-05-18 | キヤノン株式会社 | Picture processing system, picture processing method and program |
US11348487B2 (en) | 2019-07-22 | 2022-05-31 | Samsung Display Co., Ltd. | Display module |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004088244A (en) * | 2002-08-23 | 2004-03-18 | Sony Corp | Image processing apparatus, image processing method, image frame data storage medium, and computer program |
WO2008050806A1 (en) * | 2006-10-24 | 2008-05-02 | Sony Corporation | Imaging device and reproduction control device |
JP2008109245A (en) * | 2006-10-24 | 2008-05-08 | Sony Corp | Recording and reproducing device |
JP2009177527A (en) * | 2008-01-24 | 2009-08-06 | Panasonic Corp | Image recording device, image reproducing device, recording medium, and program |
WO2009098933A1 (en) * | 2008-02-04 | 2009-08-13 | Sony Corporation | Video signal transmission device, video signal transmission method, video signal reception device, and video signal reception method |
WO2010038409A1 (en) * | 2008-09-30 | 2010-04-08 | パナソニック株式会社 | Reproduction device, recording medium, and integrated circuit |
WO2010058354A1 (en) * | 2008-11-24 | 2010-05-27 | Koninklijke Philips Electronics N.V. | 3d video reproduction matching the output format to the 3d processing ability of a display |
JP2011217272A (en) * | 2010-04-01 | 2011-10-27 | Canon Inc | Video processing apparatus, and method of controlling the same |
WO2012111331A1 (en) * | 2011-02-16 | 2012-08-23 | パナソニック株式会社 | Video encoding method and video decoding method |
-
2013
- 2013-10-15 JP JP2013214816A patent/JP2015080035A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004088244A (en) * | 2002-08-23 | 2004-03-18 | Sony Corp | Image processing apparatus, image processing method, image frame data storage medium, and computer program |
WO2008050806A1 (en) * | 2006-10-24 | 2008-05-02 | Sony Corporation | Imaging device and reproduction control device |
JP2008109245A (en) * | 2006-10-24 | 2008-05-08 | Sony Corp | Recording and reproducing device |
JP2009177527A (en) * | 2008-01-24 | 2009-08-06 | Panasonic Corp | Image recording device, image reproducing device, recording medium, and program |
WO2009098933A1 (en) * | 2008-02-04 | 2009-08-13 | Sony Corporation | Video signal transmission device, video signal transmission method, video signal reception device, and video signal reception method |
WO2010038409A1 (en) * | 2008-09-30 | 2010-04-08 | パナソニック株式会社 | Reproduction device, recording medium, and integrated circuit |
WO2010058354A1 (en) * | 2008-11-24 | 2010-05-27 | Koninklijke Philips Electronics N.V. | 3d video reproduction matching the output format to the 3d processing ability of a display |
JP2011217272A (en) * | 2010-04-01 | 2011-10-27 | Canon Inc | Video processing apparatus, and method of controlling the same |
WO2012111331A1 (en) * | 2011-02-16 | 2012-08-23 | パナソニック株式会社 | Video encoding method and video decoding method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017085495A (en) * | 2015-10-30 | 2017-05-18 | キヤノン株式会社 | Picture processing system, picture processing method and program |
US10419769B2 (en) | 2015-10-30 | 2019-09-17 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and non-transitory computer readable storage medium |
US11348487B2 (en) | 2019-07-22 | 2022-05-31 | Samsung Display Co., Ltd. | Display module |
US11749139B2 (en) | 2019-07-22 | 2023-09-05 | Samsung Display Co., Ltd. | Display module |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8253794B2 (en) | Image processing apparatus and image display method | |
KR20150056381A (en) | Appratus and method for processing image | |
US9071806B2 (en) | Reproducing apparatus | |
KR101256107B1 (en) | Vison monitoring method of dvr | |
JP2015080035A (en) | Image processing device, image processing method and program | |
US10200616B2 (en) | Image processing device that performs image rotation processing, method of controlling the same, and storage medium | |
US9538119B2 (en) | Method of capturing moving picture and apparatus for reproducing moving picture | |
US10783670B2 (en) | Method for compression of 360 degree content and electronic device thereof | |
CN111263211B (en) | Method for caching video data and terminal equipment | |
JP2015080034A (en) | Image processing device, image processing method and program | |
US10474743B2 (en) | Method for presenting notifications when annotations are received from a remote device | |
US11877021B2 (en) | Transmitting device and receiving device | |
CN114710707A (en) | Display device and video thumbnail acquisition method | |
CN113141480A (en) | Screen recording method, device, equipment and storage medium | |
US10440218B2 (en) | Image processing apparatus, control method for image processing apparatus, and non-transitory computer-readable recording medium | |
JP6257197B2 (en) | Information processing apparatus, control method therefor, program, and storage medium | |
KR102557384B1 (en) | Electronic apparatus and control method thereof | |
CN112188269A (en) | Video playing method and device and video generating method and device | |
JP2017112455A (en) | Information processing unit | |
US9521327B2 (en) | Image capturing apparatus, method for controlling image capturing apparatus, display control apparatus, and method for controlling display control apparatus | |
US20160189747A1 (en) | Imaging apparatus and control method thereof | |
US20240095387A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
WO2015020436A1 (en) | Image reproducing apparatus, sever and image reproducing methods thereof | |
WO2018180662A1 (en) | Image processing device and image processing method | |
JP2016065958A (en) | Display control system, display control device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161013 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170630 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180320 |