JP2008259059A - Moving image decoding apparatus, method, and program, and moving image encoding apparatus, method, and program - Google Patents
Moving image decoding apparatus, method, and program, and moving image encoding apparatus, method, and program Download PDFInfo
- Publication number
- JP2008259059A JP2008259059A JP2007100955A JP2007100955A JP2008259059A JP 2008259059 A JP2008259059 A JP 2008259059A JP 2007100955 A JP2007100955 A JP 2007100955A JP 2007100955 A JP2007100955 A JP 2007100955A JP 2008259059 A JP2008259059 A JP 2008259059A
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- information
- moving image
- image
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、動画像に情報を埋め込むための動画像符号化装置、方法及びプログラム、並びに動画像復号装置、方法及びプログラムに関するもので、特に動きベクトルを利用した情報の埋め込みに伴う動画像符号化・復号技術に関するものである。 The present invention relates to a moving picture encoding apparatus, method and program for embedding information in a moving picture, and a moving picture decoding apparatus, method and program, and in particular, moving picture encoding accompanying information embedding using a motion vector. -It relates to decoding technology.
動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合はMPEG1、2、4やH.261〜H.264の方式が広く用いられている。動画像の符号化では、時間方向で隣接する他の画像を用いて符号化の対象となる対象画像の予測信号を生成して、対象画像と予測信号との差分を符号化することにより、データ量の削減を実現する。 In order to efficiently transmit and store moving image data, a compression encoding technique is used. In the case of moving images, MPEG1, 2, 4 and H.264 are used. 261-H. H.264 is widely used. In the encoding of a moving image, a prediction signal of a target image to be encoded is generated using another image that is adjacent in the time direction, and the difference between the target image and the prediction signal is encoded. Realize volume reduction.
例えばH.264では、1フレームの画像を16×16画素からなるブロックの領域に分割し、画像をこのブロック単位で符号化処理を行う。フレーム間符号化では、符号化対象となる画像の対象ブロックに対し、符号化済で復元された他のフレームを参照画像として動き検出を行い、誤差の最も少ない予測信号を決定する。次にこの対象ブロックと該予測信号との差分値を求めて、離散コサイン変換と量子化処理を行なう。量子化された離散コサイン変換の係数及び予測信号を特定するための動きベクトルをエントロピー符号化し、符号化データを生成する。 For example, H.C. In H.264, an image of one frame is divided into blocks of 16 × 16 pixels, and the image is encoded in units of blocks. In interframe coding, motion detection is performed on a target block of an image to be encoded using another frame that has been encoded and restored as a reference image, and a prediction signal with the least error is determined. Next, a difference value between the target block and the prediction signal is obtained, and discrete cosine transform and quantization processing are performed. A quantized discrete cosine transform coefficient and a motion vector for specifying a prediction signal are entropy-coded to generate encoded data.
ところで、このように圧縮符号化された動画像データに、透かし情報や該動画像に関連する情報(例えばテロップ情報など)を埋め込む技術が知られている。例えば、動きベクトルを利用した情報の埋め込みについては、下記の非特許文献1、2に開示されている。
By the way, a technique for embedding watermark information and information related to the moving image (for example, telop information) in the moving image data compressed and encoded in this way is known. For example, information embedding using motion vectors is disclosed in
非特許文献1によると、電子透かし情報を埋め込むエンコーダでは、まず、最適な動きベクトルを1画素単位で求める。電子透かし情報から1ビット取り出し、そのビットの値(0または1)によって、半画素単位の動きベクトルの探索範囲を限定し、1画素単位で求めた最適な動きベクトルが指す参照画素の周囲の8つの半画素から最も原画素に近い画素を求め、求めた画素を指すベクトルを新たな動きベクトルとする。電子透かし情報を取り出すデコーダでは、動きベクトルを復号し、x座標、y座標が半画素か否かを調べる等して、最終的にx座標とy座標の組み合わせにより透かし情報を算出する。
According to Non-Patent
非特許文献2によると、動きベクトルのx、y方向成分から、関数F(x,y)=x+y(mod 2)を定義する。この関数値が埋め込み情報ビットの0、1と等しくなるように動きベクトルを移動させることで、情報を埋め込む。この動きベクトルの移動には、x、y方向それぞれに+1又は−1だけ移動させることができるので、x、y方向の組合せで計4通りの選択肢はあるものの、画像の劣化を押さえるために、上記4通りのうち、最適画像との誤差が最小になる位置に移動させる方法を用いる。
上記の2つの従来技術では、所定の規則に従って動きベクトルを限定し情報を埋め込むことになっているため、維持できる画質も限定的になるという課題がある。非特許文献1について考えてみる。例えば、埋め込む情報が「0」の場合、半画素単位の動きベクトルが第1探索範囲に限定されるとすると、第1探索範囲とは異なる第2探索範囲に、第1探索範囲よりも誤差の少ない予測信号があったとしても、該予測信号を与える動きベクトルを使えないことになる。すなわち、情報を埋め込む規則が定まっていることによって、画質を維持するための自由度も限られてしまうという問題点がある。同様に非特許文献2でも、関数値が埋め込み情報と等しくなるように動きベクトルを移動させる仕組みになっているので、画質を維持するための自由度も限られてしまうという問題点がある。
In the above two conventional techniques, there is a problem that the image quality that can be maintained is limited because the motion vector is limited and information is embedded according to a predetermined rule. Consider Non-Patent
また、上記の2つの従来技術において、復号側は符号化側と同じ規則で情報を抽出する必要がある。すなわち、情報を埋め込む方法を変える度に情報を抽出するアルゴリズムも変えないといけないことになる。このような方式は、電子透かしのように埋め込み情報を固く保護したい場合には有効であるが、文字放送のテロップやインターネットのURLなどの情報を埋め込む場合のように、埋め込み方法を変えても既存の復号装置で上記埋め込んだ情報を抽出可能としたい場合には不向きである。 Further, in the above two conventional techniques, the decoding side needs to extract information according to the same rules as the encoding side. In other words, every time the information embedding method is changed, the algorithm for extracting information must be changed. Such a method is effective when it is desired to firmly protect the embedded information as in a digital watermark, but the existing method can be changed even if the embedding method is changed as in the case of embedding information such as a teletext of teletext or an Internet URL. It is not suitable when it is desired that the embedded information can be extracted by the decoding device.
本発明は、上記の課題を解決するために成されたものであり、情報を埋め込む際に画質を維持するための自由度を高めると同時に、情報を埋め込む方法を変更しても情報を抽出可能とすることを目的とする。 The present invention has been made to solve the above-described problems, and can improve the degree of freedom for maintaining image quality when embedding information, and at the same time can extract information even if the method of embedding information is changed. It aims to be.
上記課題を解決するために、本発明に係る動画像復号装置は、動画像を複数の対象領域に分割し、前記対象領域について復元済の参照画像より予測領域及び前記予測領域の位置を示す動きベクトル情報を決定し、前記予測領域と前記対象領域との差分信号及び前記動きベクトル情報を符号化してなるデータ、を含むビットストリームを入力する入力手段と、入力された前記ビットストリームより、前記差分信号及び前記動きベクトル情報を復号し、前記参照画像より前記動きベクトル情報によって特定される予測領域の信号と前記差分信号とから前記動画像を復元することで、再生動画像を生成する画像復号手段と、前記生成された再生動画像と前記参照画像とから、所定の方法で、前記復号された動きベクトル情報が属する前記再生動画像内の対象領域に対する基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて、前記動画像に埋め込まれた情報を抽出する情報抽出手段と、を具備することを特徴とする。 In order to solve the above-described problem, the video decoding device according to the present invention divides a video into a plurality of target areas, and shows the prediction area and the position of the prediction area from the restored reference image for the target area. Input means for determining a vector information and inputting a bitstream including a difference signal between the prediction region and the target region and data obtained by encoding the motion vector information; and the difference from the input bitstream. Image decoding means for decoding a signal and the motion vector information, and generating a reproduced moving image by restoring the moving image from the prediction region signal specified by the motion vector information and the difference signal from the reference image And the reproduced moving image to which the decoded motion vector information belongs in a predetermined method from the generated reproduced moving image and the reference image An information extraction means for detecting a reference motion vector for the target area of the image, comparing the motion vector information with the reference motion vector, and extracting information embedded in the moving image based on the comparison result. It is characterized by doing.
上記の動画像復号装置は、生成された再生動画像と参照画像とから、所定の方法で、上記復号された動きベクトル情報が属する再生動画像内の対象領域に対する基準動きベクトルを検出し、動きベクトル情報と基準動きベクトルとを比較し、該比較結果に基づいて上記埋め込まれた情報を抽出する。このため、符号化側で用いられた情報埋め込み方法の規則を知る必要はなく、情報埋め込み方法に依存することなく、埋め込み情報の抽出ができる。すなわち、情報埋め込み方法を多少変更しても、復号装置で情報を抽出できるメリットがある。 The moving image decoding apparatus detects a reference motion vector for a target region in a reproduced moving image to which the decoded motion vector information belongs, from a generated reproduced moving image and a reference image, by a predetermined method, The vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result. Therefore, it is not necessary to know the rules of the information embedding method used on the encoding side, and the embedded information can be extracted without depending on the information embedding method. That is, even if the information embedding method is slightly changed, there is an advantage that information can be extracted by the decoding device.
なお、本発明に係る動画像復号装置では、情報抽出手段は、前記動きベクトル情報が属する前記再生動画像内の対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較することにより前記基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて前記埋め込まれた情報を抽出する構成とすることが望ましい。 In the moving picture decoding apparatus according to the present invention, the information extracting means includes an adjacent area composed of reproduced pixels adjacent to a target area in the reproduced moving picture to which the motion vector information belongs, and a signal of the reference image. Preferably, the reference motion vector is detected by comparing the motion vector information, the motion vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result.
本発明に係る動画像符号化装置は、動画像を構成する複数の画像のうち、符号化の対象となる対象画像を入力する入力手段と、前記対象画像を複数の対象領域に分割し、前記対象領域について再生済の参照画像より予測信号を特定するための複数の動きベクトル情報を検出する動き検出手段と、前記複数の動きベクトル情報のうち1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する予測信号生成手段と、前記対象領域と前記予測信号との差分を符号化し、符号化差分信号を生成する符号化手段と、前記符号化差分信号を復元し、復元した符号化差分信号と前記予測信号とを加算することで、再生動画像を生成する再生手段と、予測信号を生成する際の参照画像として用いられる前記再生動画像を格納する格納手段と、前記動画像に埋め込むべき情報を前記動画像に埋め込むための処理を実行する情報埋め込み手段と、を具備し、前記動き検出手段は、前記対象領域について再生済の参照画像より第1動き検出方法で第1動きベクトルを検出し、前記再生動画像と前記参照画像とに基づいて動きを検出する第2動き検出方法で、前記第1動きベクトルと異なる第2動きベクトルを検出し、前記情報埋め込み手段は、前記埋め込むべき情報に基づいて前記第1動きベクトルと前記第2動きベクトルのいずれかを選択し、前記予測信号生成手段は、選択された前記第1動きベクトル又は前記第2動きベクトルを前記1つの動きベクトル情報とし、該1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する、ことを特徴とする。 The moving image encoding apparatus according to the present invention divides the target image into a plurality of target regions, an input unit that inputs a target image to be encoded among a plurality of images constituting the moving image, Based on motion vector information for detecting a plurality of motion vector information for specifying a prediction signal from a reproduced reference image for the target region, and the target region based on one motion vector information among the plurality of motion vector information A prediction signal generation unit that generates a prediction signal for the signal, an encoding unit that encodes a difference between the target region and the prediction signal, and generates an encoded differential signal, and restores and restores the encoded differential signal A reproduction unit that generates a reproduction moving image by adding the encoded difference signal and the prediction signal, and a storage unit that stores the reproduction moving image used as a reference image when generating the prediction signal And an information embedding unit that executes processing for embedding information to be embedded in the moving image in the moving image, wherein the motion detecting unit uses a first motion detection method based on a reference image reproduced for the target area. The second motion detection method detects a first motion vector and detects a motion based on the reproduced moving image and the reference image, detects a second motion vector different from the first motion vector, and embeds the information The means selects either the first motion vector or the second motion vector based on the information to be embedded, and the prediction signal generating means selects the selected first motion vector or the second motion vector. The one motion vector information is used, and a prediction signal for the target region is generated based on the one motion vector information.
前述したように、動画像復号装置からみて情報を埋め込む規則が定まっていないので、動画像符号化装置では画質を維持するための自由度が高くなる。すなわち、動画像復号装置において動きベクトルの判別さえできれば、動画像符号化装置では大局的に、より少ない誤差の動きベクトルで情報を埋め込むことができ、従来技術よりも高い画質で情報を埋め込むことが可能となる。 As described above, since the rules for embedding information are not determined from the viewpoint of the moving picture decoding apparatus, the moving picture encoding apparatus has a high degree of freedom for maintaining the image quality. In other words, as long as the motion vector can be discriminated in the video decoding device, the video encoding device can embed information with a motion vector with fewer errors and embed information with higher image quality than the prior art. It becomes possible.
なお、本発明に係る動画像符号化装置では、前記動き検出手段は、前記第2動き検出方法として、前記再生動画像内にある対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較し、該比較結果に基づいて前記第2動きベクトルを検出する構成とすることが望ましい。 In the moving image encoding device according to the present invention, the motion detection means, as the second motion detection method, includes an adjacent region composed of reproduced pixels adjacent to a target region in the reproduced moving image, and the It is desirable that the second motion vector is detected based on the comparison result with a reference image signal.
また、本発明に係る動画像符号化装置では、前記動き検出手段は、前記第2動き検出方法として、前記第1動きベクトルで特定される予測信号による誤差値から所定の幅以上離れた誤差値の予測信号を与える前記第2動きベクトルを検出する構成とすることが望ましい。 In the moving image encoding apparatus according to the present invention, the motion detection means may use an error value separated from an error value by a prediction signal specified by the first motion vector by a predetermined width or more as the second motion detection method. It is desirable that the second motion vector that gives the prediction signal is detected.
ところで、動画像復号装置に係る発明は、以下のように、動画像復号方法に係る発明及び動画像復号プログラムに係る発明として捉えることができ、同様の効果を奏することができる。 By the way, the invention relating to the moving picture decoding apparatus can be regarded as the invention relating to the moving picture decoding method and the invention relating to the moving picture decoding program as described below, and can achieve the same effects.
本発明に係る動画像復号方法は、動画像復号装置により実行される動画像復号方法であって、動画像を複数の対象領域に分割し、前記対象領域について復元済の参照画像より予測領域及び前記予測領域の位置を示す動きベクトル情報を決定し、前記予測領域と前記対象領域との差分信号及び前記動きベクトル情報を符号化してなるデータ、を含むビットストリームを入力する入力ステップと、入力された前記ビットストリームより、前記差分信号及び前記動きベクトル情報を復号し、前記参照画像より前記動きベクトル情報によって特定される予測領域の信号と前記差分信号とから前記動画像を復元することで、再生動画像を生成する画像復号ステップと、前記生成された再生動画像と前記参照画像とから、所定の方法で、前記復号された動きベクトル情報が属する前記再生動画像内の対象領域に対する基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて、前記動画像に埋め込まれた情報を抽出する情報抽出ステップと、を具備することを特徴とする。 A moving image decoding method according to the present invention is a moving image decoding method executed by a moving image decoding apparatus, wherein a moving image is divided into a plurality of target regions, and the target region is predicted from a restored reference image and An input step for determining a motion vector information indicating a position of the prediction region, and inputting a bit stream including a difference signal between the prediction region and the target region and data obtained by encoding the motion vector information; and In addition, the difference signal and the motion vector information are decoded from the bitstream, and the moving image is restored from the prediction region signal specified by the motion vector information and the difference signal from the reference image. An image decoding step for generating a moving image, and the decoded moving image is generated by a predetermined method from the generated reproduction moving image and the reference image. A reference motion vector for a target region in the playback moving image to which vector information belongs is detected, the motion vector information is compared with the reference motion vector, and information embedded in the moving image is determined based on the comparison result. And an information extracting step for extracting.
このとき、情報抽出ステップでは、前記動きベクトル情報が属する前記再生動画像内の対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較することにより前記基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて前記埋め込まれた情報を抽出することが望ましい。 At this time, in the information extraction step, the reference motion vector is compared by comparing an adjacent region composed of reproduced pixels adjacent to the target region in the reproduced moving image to which the motion vector information belongs and a signal of the reference image. It is preferable that the motion vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result.
本発明に係る動画像復号プログラムは、コンピュータを、請求項1又は2に記載の動画像復号装置として機能させるための動画像復号プログラムである。
A moving picture decoding program according to the present invention is a moving picture decoding program for causing a computer to function as the moving picture decoding apparatus according to
また、動画像符号化装置に係る発明は、以下のように、動画像符号化方法に係る発明及び動画像符号化プログラムに係る発明として捉えることができ、同様の効果を奏することができる。 In addition, the invention relating to the moving image encoding apparatus can be regarded as the invention relating to the moving image encoding method and the invention relating to the moving image encoding program as described below, and can achieve the same effects.
本発明に係る動画像符号化方法は、動画像符号化装置により実行される動画像符号化方法であって、動画像を構成する複数の画像のうち、符号化の対象となる対象画像を入力する入力ステップと、前記対象画像を複数の対象領域に分割し、前記対象領域について再生済の参照画像より予測信号を特定するための複数の動きベクトル情報を検出する動き検出ステップと、前記複数の動きベクトル情報のうち1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する予測信号生成ステップと、前記対象領域と前記予測信号との差分を符号化し、符号化差分信号を生成する符号化ステップと、前記符号化差分信号を復元し、復元した符号化差分信号と前記予測信号とを加算することで、再生動画像を生成する再生ステップと、予測信号を生成する際の参照画像として用いられる前記再生動画像を格納する格納ステップと、前記動画像に埋め込むべき情報を前記動画像に埋め込むための処理を実行する情報埋め込みステップと、を具備し、前記動き検出ステップでは、前記対象領域について再生済の参照画像より第1動き検出方法で第1動きベクトルを検出し、前記再生動画像と前記参照画像とに基づいて動きを検出する第2動き検出方法で、前記第1動きベクトルと異なる第2動きベクトルを検出し、前記情報埋め込みステップでは、前記埋め込むべき情報に基づいて前記第1動きベクトルと前記第2動きベクトルのいずれかを選択し、前記予測信号生成ステップでは、選択された前記第1動きベクトル又は前記第2動きベクトルを前記1つの動きベクトル情報とし、該1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成することを特徴とする。 A moving image encoding method according to the present invention is a moving image encoding method executed by a moving image encoding device, and inputs a target image to be encoded among a plurality of images constituting the moving image. An input step that divides the target image into a plurality of target regions, and detects a plurality of motion vector information for specifying a prediction signal from a reference image reproduced for the target region, A prediction signal generation step for generating a prediction signal for the target region based on one motion vector information of the motion vector information, a difference between the target region and the prediction signal is encoded, and an encoded difference signal is An encoding step to generate, a reproduction step of restoring the encoded differential signal, and adding the restored encoded differential signal and the prediction signal to generate a reproduced moving image; A storage step for storing the reproduced moving image used as a reference image when generating a measurement signal, and an information embedding step for executing processing for embedding information to be embedded in the moving image in the moving image. In the motion detection step, a first motion vector is detected by a first motion detection method from a reference image that has been reproduced for the target area, and a motion is detected based on the reproduced moving image and the reference image. A detection method detects a second motion vector different from the first motion vector, and the information embedding step selects either the first motion vector or the second motion vector based on the information to be embedded, In the prediction signal generating step, the selected first motion vector or the second motion vector is used as the one motion vector information. Based on the single motion vector information, and generates a prediction signal for the target region.
このとき、動き検出ステップでは、前記第2動き検出方法として、前記再生動画像内にある対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較し、該比較結果に基づいて前記第2動きベクトルを検出することが望ましい。 At this time, in the motion detection step, as the second motion detection method, an adjacent region composed of reproduced pixels adjacent to the target region in the reproduced moving image is compared with the signal of the reference image, and the comparison is performed. It is desirable to detect the second motion vector based on the result.
また、動き検出ステップでは、前記第2動き検出方法として、前記第1動きベクトルで特定される予測信号による誤差値から所定の幅以上離れた誤差値の予測信号を与える前記第2動きベクトルを検出することが望ましい。 Further, in the motion detection step, as the second motion detection method, the second motion vector that gives a prediction signal having an error value separated from the error value by the prediction signal specified by the first motion vector by a predetermined width or more is detected. It is desirable to do.
本発明に係る動画像符号化プログラムは、コンピュータを、請求項3〜5の何れか一項に記載の動画像符号化装置として機能させるための動画像符号化プログラムである。 The moving image encoding program according to the present invention is a moving image encoding program for causing a computer to function as the moving image encoding apparatus according to any one of claims 3 to 5.
本発明に係る動画像復号装置は、生成された再生動画像と参照画像とから、所定の方法で、上記復号された動きベクトル情報が属する再生動画像内の対象領域に対する基準動きベクトルを検出し、動きベクトル情報と基準動きベクトルとを比較し、該比較結果に基づいて上記埋め込まれた情報を抽出する。このため、符号化側で用いられた情報埋め込み方法の規則を知る必要はなく、情報埋め込み方法に依存することなく、埋め込み情報の抽出ができる。すなわち、情報埋め込み方法を多少変更しても、復号装置で情報を抽出できるメリットがある。 The video decoding device according to the present invention detects a reference motion vector for a target region in a playback video to which the decoded motion vector information belongs from a generated playback video and a reference image by a predetermined method. Then, the motion vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result. Therefore, it is not necessary to know the rules of the information embedding method used on the encoding side, and the embedded information can be extracted without depending on the information embedding method. That is, even if the information embedding method is slightly changed, there is an advantage that information can be extracted by the decoding device.
また、前述したように、動画像復号装置からみて情報を埋め込む規則が定まっていないので、動画像符号化装置では画質を維持するための自由度が高くなる。すなわち、動画像復号装置において動きベクトルの判別さえできれば、動画像符号化装置では大局的に、より少ない誤差の動きベクトルで情報を埋め込むことができ、従来技術よりも高い画質で情報を埋め込むことが可能となる。 Further, as described above, since the rules for embedding information are not determined from the viewpoint of the moving picture decoding apparatus, the moving picture encoding apparatus has a high degree of freedom for maintaining the image quality. In other words, as long as the motion vector can be discriminated in the video decoding device, the video encoding device can embed information with a motion vector with fewer errors and embed information with higher image quality than the prior art. It becomes possible.
以下、本発明に係る実施形態について、図1〜図10を用いて説明する。 Hereinafter, embodiments according to the present invention will be described with reference to FIGS.
(符号化装置について)
図1は、埋め込み情報を処理する動画像符号化装置100のブロック図を示す。図1に示すように、動画像符号化装置100は、入力端子101、ブロック分割器102、予測信号生成器103、フレームメモリ104、引き算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111、出力端子112、動き検出器113、及び、動きベクトル選択器114を備えている。
(About the encoding device)
FIG. 1 shows a block diagram of a
(動画像符号化装置における動作概要)
このような動画像符号化装置100について、以下、各構成部の動作を述べる。動画像を構成する複数の画像は入力端子101に入力される。入力された画像に対し、ブロック分割器102は、符号化の対象となる画像を複数の小領域(ここでは例えば16×16画素からなるブロック)に分割する。分割された各ブロックについて、以下の圧縮・符号化処理が実行される。
(Outline of operation in moving picture coding apparatus)
Hereinafter, the operation of each component of the moving
符号化の対象となるブロック(以下「対象ブロック」という)について、動き検出器113、動きベクトル選択器114及び予測信号生成器103により、予測信号の生成処理が実行される。この予測信号の生成処理は、後に、詳述する。
A prediction signal generation process is executed by the
予測信号の生成処理で生成された予測信号はラインL103経由で引き算器105に送られ、引き算器105は、対象ブロックから予測信号を引き算することで差分信号を生成する。生成された差分信号は変換器106に送られ、変換器106は差分信号を周波数領域の信号に変換して量子化器107に出力する。量子化器107は量子化処理を行い、量子化後の信号をエントロピー符号化器111及び逆量子化器108に出力する。エントロピー符号化器111は、量子化後の信号を可変長符号に変換し出力端子112より出力する。なお、可変長符号の代わりに算術符号化を適用してもよい。
The prediction signal generated by the prediction signal generation process is sent to the
また、逆量子化器108は、量子化後の信号を逆量子化して逆変換器109に出力し、逆変換器109は逆変換を行う。これにより、量子化後の信号は、空間領域の復元差分信号に変換される。次に、加算器110が、復元差分信号と、ラインL103経由で送られる予測信号とを加算する。これにより、再生動画像が生成される。このようにして復元された再生動画像は、次の画像を符号化する際の参照画像として使用されるため、フレームメモリ104に格納される。
Further, the
次に、予測信号の生成処理について述べる。動き検出器113は、対象ブロックについての予測信号(同じく16×16画素のブロック)を生成する。具体的には、対象ブロックはラインL102経由で、フレームメモリに格納されている参照画像はラインL104経由で、それぞれ動き検出器113に入力され、動き検出器113は、従来と同じ手法で、参照画像における対象ブロックの変位を検出し、対象ブロックに最も誤差の少ない予測信号を与える動きベクトルを検出する。例えば、動き検出器113は、参照画像において所定の探索範囲を決定し、この探索範囲から対象ブロックと同じ画素数の候補ブロックを取得する。次に、動き検出器113は、対象ブロックと候補ブロックとで、対応する画素間の差分値を求め、差分値の絶対値を加算して、当該候補ブロックに関する予測誤差を求める。このようにして、動き検出器113は、探索範囲内にある全ての候補ブロックの各々について予測誤差を求め、予測誤差の最も少ない候補ブロックを特定し、該候補ブロックを与える対象ブロックの変位を、最適動きベクトルとして検出する。このように予測誤差の最も少ない予測信号を用いることにより、効率よく動画像を符号化することができる。上記のようなブロックマッチングの方法によって求めた最適動きベクトルは、第1動きベクトルと呼び、場合により「MV1」と略称する。
Next, prediction signal generation processing will be described. The
本実施形態の動画像符号化装置100は、上記の第1動きベクトルに加えて、第2動きベクトル(場合により「MV2」と略称する)も併せて求める。第2動きベクトルの求め方については、大別して2つの方法があるが、ここでは、まず第1の方法に基づく処理を説明する。
In addition to the first motion vector, the moving
第1の方法では、第1動きベクトルに対応する予測誤差値から所定の幅以上離れている予測誤差値を与える動きベクトルを、第2動きベクトルとして求める。すなわち、第2動きベクトルが与える予測誤差値をSAD(MV2)、第1動きベクトルが与える予測誤差値をSAD(MV1)、所定の幅をMとすると、以下の式(1)を満たすSAD(MV2)の中から、予測誤差値の最も小さいものに対応する動きベクトルを第2動きベクトルとして求める。
|SAD(MV2)−SAD(MV1)|>M …(1)
ここで、所定の幅Mは、復号装置においてSAD(MV2)とSAD(MV1)とを区別可能な程度の値を用いる。
In the first method, a motion vector that gives a prediction error value that is more than a predetermined width away from the prediction error value corresponding to the first motion vector is obtained as the second motion vector. That is, assuming that the prediction error value given by the second motion vector is SAD (MV2), the prediction error value given by the first motion vector is SAD (MV1), and the predetermined width is M, SAD ( The motion vector corresponding to the smallest prediction error value is obtained as the second motion vector from MV2).
| SAD (MV2) -SAD (MV1) |> M (1)
Here, the predetermined width M is a value that can distinguish SAD (MV2) and SAD (MV1) in the decoding apparatus.
なお、本実施形態では、例えば、所定の幅Mは、符号化装置において用いられる量子化幅の関数により決定される。詳細は後述するが、復号装置ではMV2を求め、求めたMV2と符号化データに含まれる動きベクトルとを比較し、該比較結果に基づいて埋め込み情報を抽出する。そのため、MV1はMV2と異なるものであれば何でもよい。例えば、復号装置において決定されるMV2に対し、MV1は、MV2の水平の成分と垂直の成分の一方又は両方を負の値にしてもよいし、動きベクトルの最小単位で増減してもよい。 In the present embodiment, for example, the predetermined width M is determined by a function of the quantization width used in the encoding device. Although details will be described later, the decoding apparatus obtains MV2, compares the obtained MV2 with a motion vector included in the encoded data, and extracts embedded information based on the comparison result. Therefore, MV1 may be anything as long as it is different from MV2. For example, with respect to MV2 determined in the decoding device, MV1 may be a negative value of one or both of the horizontal component and the vertical component of MV2, or may be increased or decreased by the minimum unit of the motion vector.
このように決定された第1の動きベクトルと第2の動きベクトルは、ラインL113経由で動きベクトル選択器114に送られる。動きベクトル選択器114には、画像に埋め込む情報の二値化されたデータがあわせて入力され、動きベクトル選択器114は、埋め込む情報の「0」もしくは「1」に応じて、MV1又はMV2を選択する。選択された動きベクトルは、ラインL114経由で予測信号生成器103に送られる。予測信号生成器103は、選択された動きベクトルをもとに、フレームメモリ104から予測信号を取得し、取得した予測信号を対象ブロックの予測信号としてラインL103経由で引き算器105に出力する。
The first motion vector and the second motion vector determined in this way are sent to the
(動画像符号化装置における情報埋め込み処理)
次に、図2と図3を用いて動画像符号化装置100により実行される情報埋め込み処理を説明する。図2において、上述したブロックマッチングの方法で、対象画像の全てのブロックについて第1動きベクトルMV1を求める(ステップ211)。次に、ステップ212では、上述した第1の方法で、対象画像の全てのブロックについて第2動きベクトルMV2を求める。MV2は、MV1との間で、水平・垂直成分の少なくとも1つが異なることが条件である。
(Information embedding process in moving picture encoding apparatus)
Next, an information embedding process executed by the moving
ステップ213以降は、各ブロックに情報を埋め込む処理になる。まずステップ213では、カウンタbnを0にセットし、次のステップ214では、埋め込む情報の二値化されたデータの1ビット(0または1)を入力する。そして、ステップ215では、入力された1ビットに基づいて、ブロックbnの予測信号を生成するための動きベクトルMVを決定する。
From
ステップ215での決定方法の一実施態様は図3に示される。すなわち、図3のステップ301にて、埋め込み情報が1かどうかを判断する。埋め込み情報が1の場合は、ステップ302にてMV1を選択しMV=MV1とする。埋め込み情報が1でない場合は、MV=MV2とする(ステップ303)。そして、ステップ304では、選択された動きベクトルMVを出力する。
One embodiment of the determination method at
図2に戻り、次のステップ216では、この動きベクトルMVを用いてブロックbnの予測信号を取得した後、取得した予測信号と対象ブロックとの差分符号化を行う。上記のステップ215、216の処理が全てのブロックについて実行されることによって、画像に情報が埋め込まれる。
Returning to FIG. 2, in the
なお、埋め込む情報の量によって、全てのブロックについて上記の処理を施す必要がない場合は、一部のブロックを特定した上で、該一部のブロックのみに情報を埋め込む。それ以外のブロックについては、第1動きベクトルMV1を用いて符号化すればよい。また、図2のステップ211と212をステップ213の後におき、ブロック単位で第1の動きベクトルと第2の動きベクトルとを求めながら、情報を画像に埋め込むように処理してもよい。
If it is not necessary to perform the above processing on all blocks depending on the amount of information to be embedded, information is embedded only in some of the blocks after identifying some of the blocks. Other blocks may be encoded using the first motion vector MV1. 2 may be placed after
(第2動きベクトルMV2を求める第2の方法)
図4は、第2動きベクトルを求める第2の方法を説明するための模式図である。この図4において、対象ブロック402の第1動きベクトルは上述の従来方法で求める。第2動きベクトルは、対象ブロック402に隣接する画素群403を用いて求める。つまり、参照画像406にある探索領域409の中から、画素群403に最も類似する予測画素群を求める。
(Second method for obtaining the second motion vector MV2)
FIG. 4 is a schematic diagram for explaining a second method for obtaining the second motion vector. In FIG. 4, the first motion vector of the
具体的には、探索領域409にある候補画素群408の各々と、画素群403との誤差を求め、全ての候補画素群のうち、画素群403との誤差の最も小さい候補画素群を予測画素群とする。そして、探索領域409にある画素群403と予測画素群との間の変位を、対象ブロックの第2動きベクトルとする。なお、本実施形態では、誤差として、画素間の差分の絶対値の和を用いるが、それ以外の方法を用いてもよい。上記の画素群403は、対象ブロック402を処理する前に既に復元されたものであるため、復号装置においても、同じ画素群403を用いて、同じ第2動きベクトルを求めることができる。
Specifically, an error between each of the
図5は、図4の第2動きベクトルの求め方に対応する動きベクトルMVの決定方法であり、図2のステップ215にて実行される。すなわち、図5のステップ501にて、埋め込み情報が1かどうかを判断する。埋め込み情報が1の場合は、ステップ502に進み、MV1とMV2が同じかどうかを判断する。ここでは、埋め込み情報が1の場合、第2動きベクトルMV2と異なる動きベクトルで符号化するものとする。そこで、ステップ502にてMV1とMV2が異なると判断された場合、ステップ503にて、符号化に用いる動きベクトルMVをMV1とする。一方、MV1とMV2が同じ場合、MV1と異なる動きベクトルを別途決定し、決定した動きベクトルを用いる必要がある。そのため、ステップ504では、前述した式1に示す方法で、MV1と異なる動きベクトルMV1’を決定し、符号化に用いる動きベクトルMVをMV1’とする。
FIG. 5 shows a method for determining the motion vector MV corresponding to the method for obtaining the second motion vector in FIG. 4, and is executed in
一方、ステップ501にて埋め込み情報が0の場合はステップ505に進み、MV1とMV2が同じかどうかを判断する。ここでは、埋め込み情報が0の場合、第2動きベクトルMV2と同じ動きベクトルで符号化するものとする。そこで、ステップ505にてMV1とMV2が同じと判断された場合、ステップ506に進み、符号化に用いる動きベクトルをMV1とする。一方、MV1とMV2が異なる場合は、ステップ507に進み、MV1の代わりにMV2を符号化に用いられる動きベクトルとする。上記のステップ504、503、506、507で設定された動きベクトルMVは、ステップ508で出力される。
On the other hand, if the embedded information is 0 in
以上の図5の処理によれば、復号側でビットストリームに含まれている動きベクトルMVが、復号装置にて求めるMV2と同じと判断された場合は、埋め込み情報が0であり、動きベクトルMVが復号装置にて求めるMV2と異なると判断された場合は、埋め込み情報が1である、と一意的に決定することができる。 According to the processing in FIG. 5 described above, when the decoding side determines that the motion vector MV included in the bitstream is the same as MV2 obtained by the decoding device, the embedded information is 0, and the motion vector MV Is determined to be different from MV2 obtained by the decoding device, it can be uniquely determined that the embedded information is 1.
以上のように、情報を埋め込むデータを所定の規則に従い動きベクトルを変化させるのではなくて、予測誤差の小さい順で情報を埋め込むために、大局的に高画質の符号化データを生成することができる。 As described above, rather than changing the motion vector of data in which information is embedded according to a predetermined rule, it is possible to generate encoded data with high image quality on a global basis in order to embed information in the order of small prediction error. it can.
なお、上述した方法は、1つの対象ブロックに1ビットを埋め込む実施方法について説明したが、1ブロック当りに2ビットのデータを埋め込んでもよい。第2動きベクトルMV2は、復号装置において求めることができるので、予測誤差が最も小さいもの、2番目に小さいもの、または3番目に小さいものに対応する動きベクトルをMV2とすることで、1ブロック当りに2ビットのデータを埋め込むことができる。例えば、符号化に用いられる動きベクトルがMV2と異なる場合に「00」を割り当て、符号化に用いられる動きベクトルがMV2と同じ場合には、さらにそのMV2による予測誤差の最小のものに「01」、2番目に小さいものに「10」、3番目に小さいものに「11」を割り当てればよい。3ビット以上の場合も同じように拡張すればよい。 In the above-described method, the method of embedding 1 bit in one target block has been described. However, 2-bit data may be embedded in one block. Since the second motion vector MV2 can be obtained by the decoding apparatus, the motion vector corresponding to the smallest prediction error, the second smallest, or the third smallest motion vector is defined as MV2. Can be embedded with 2-bit data. For example, when the motion vector used for encoding is different from MV2, “00” is assigned. When the motion vector used for encoding is the same as MV2, “01” is set as the smallest prediction error due to MV2. It is only necessary to assign “10” to the second smallest and “11” to the third smallest. In the case of 3 bits or more, it may be expanded in the same way.
(復号装置について)
図6は本発明による埋め込み情報を処理する動画像復号装置600のブロック図を示す。図6に示すように、動画像復号装置600は、入力端子601、データ解析器602、逆量子化器603、逆変換器604、加算器605、画像出力端子606、フレームメモリ607、予測信号生成器608、動き検出器609、情報抽出器610、及び、情報出力端子611を備えている。
(Decoding device)
FIG. 6 is a block diagram of a moving
なお、以下の動画像復号装置に関する説明において、「第1動きベクトル」は、請求項1に記載した「動きベクトル情報」に相当し、「第2動きベクトル」は、請求項1に記載した「基準動きベクトル」に相当する。
In the following description of the video decoding device, the “first motion vector” corresponds to the “motion vector information” described in
(動画像復号装置における動作概要)
このような動画像復号装置600について、以下、各構成部の動作を述べる。入力端子601には、動画像を複数の対象領域に分割し、対象ブロックについて復元済の参照画像より予測ブロック及び該予測ブロックの位置を示す第1動きベクトルを決定し、予測ブロックと対象ブロックとの差分信号及び第1動きベクトルを符号化して得られたデータを含むビットストリームが入力される。本実施形態では、図1の動画像符号化装置100で処理して得られたビットストリームが動画像復号装置600に入力される。
(Outline of operation in video decoding device)
Hereinafter, the operation of each component of the moving
データ解析器602は、入力データ(入力されたビットストリーム)を解析し差分信号及び第1動きベクトルを復号する。ここでは可変長復号を用いるが、算術復号を用いてもよい。復号された差分信号は逆量子化器603により逆量子化され、逆量子化後の差分信号は逆変換器604により逆変換され、空間領域の復元差分信号となる。一方、データ解析器602にて復号された第1動きベクトルはラインL602b経由で予測信号生成器608に送られる。
The data analyzer 602 analyzes input data (input bit stream) and decodes the differential signal and the first motion vector. Although variable length decoding is used here, arithmetic decoding may be used. The decoded difference signal is inversely quantized by the
予測信号生成器608は、フレームメモリ607に格納された参照画像より第1動きベクトルによって特定される予測信号を取得し、該予測信号はラインL608経由で加算器605に送られる。加算器605は、予測信号と復元差分信号とを加算することで、再生動画像を生成する。生成された再生動画像は画像出力端子606経由で外部の表示装置に伝送されるとともに、フレームメモリ607に送られ格納される。
The
一方、動き検出器609は、フレームメモリ607から、生成された再生動画像内の対象ブロックの信号と参照画像の信号とを入力し、ブロックマッチングの方法により、上記復号された第1動きベクトルが属する再生動画像内の対象ブロックに対する第2動きベクトルを検出する。そして、第1動きベクトルはラインL602b経由で、第2動きベクトルはラインL610経由で、それぞれ、情報抽出器610に送られる。情報抽出器610は、第1動きベクトルと第2動きベクトルとを比較し、比較結果に基づいて、動画像に埋め込まれた情報(埋め込み情報)を抽出する(判断する)。具体的には、情報抽出器610は、第1動きベクトルと第2動きベクトルが同じ場合、埋め込み情報が「0」であると判断し、第1動きベクトルと第2動きベクトルが異なる場合、埋め込み情報が「1」であると判断する。これは図3に対応した結果になるが、「0」と「1」を逆に割り当ててもよい。
On the other hand, the
また、動き検出器609は、上述した第1の方法のほかに、フレームメモリ607から、対象ブロックに隣接する再生済の画素からなる隣接ブロックの信号と参照画像の信号とを入力し、図4にて説明された方法で第2動きベクトルを検出してもよい。即ち、動き検出器609は、図4の対象ブロック402に隣接する画素群403を対象として、画素群403と、参照画像406内の探索領域409にある候補画素群408との誤差を求め、探索領域409にある全ての候補画素群408の中から、画素群403との誤差が最も小さい候補画素群を予測画素群とする。そして、動き検出器609は、画素群403と予測画素群との間の変位を、対象ブロックの第2動きベクトルとする。情報抽出器610は、このように得られた第2動きベクトルと第1動きベクトルとを比較し、比較結果に基づいて、動画像に埋め込まれた情報(埋め込み情報)を抽出する(判断する)。例えば、情報抽出器610は、第1動きベクトルと第2動きベクトルが同じ場合、埋め込み情報が「0」であると判断し、第1動きベクトルと第2動きベクトルが異なる場合、埋め込み情報が「1」であると判断する。
In addition to the first method described above, the
図7には、動画像復号装置600により実行される、埋め込み情報を処理する動画像復号処理の流れ図を示す。図7のステップ701では、圧縮符号化されたデータが入力される。次に、データ解析器602は、入力されたデータをエントロピー復号し、量子化変換係数、量子化情報、及び第1動きベクトルを含んだ情報を抽出する(ステップ702)。予測信号生成器608は、抽出された第1動きベクトルに基づき予測信号を生成する(ステップ703)。逆量子化器603は、抽出された量子化変換係数に対し、量子化情報を用いて逆量子化する(ステップ704)。逆変換器604は、その結果を逆変換することで再生差分信号を生成する(ステップ705)。そして、加算器605は、予測信号と再生差分信号を加算することで再生信号を生成する(ステップ706)。生成された再生動画像はフレームメモリ607に出力され一時格納される(ステップ707)。上記のステップ701〜707の処理は全てのデータについて実行され、これにより画像が復元される。
FIG. 7 shows a flowchart of a moving picture decoding process for processing embedded information, which is executed by the moving
図8には、動画像復号装置600の動き検出器609及び情報抽出器610により実行される情報抽出処理の流れ図を示す。図8のステップ801では、ビットストリームに含まれ復号された第1動きベクトルが情報抽出器610に入力され、該第1動きベクトルに対応する再生動画像のブロック信号と参照画像信号とがフレームメモリ607から動き検出器609に入力される。次に、ステップ802にて動き検出器609は、再生動画像のブロック信号と参照画像信号より、第2の動きベクトルを検出する。ここでの第2動きベクトルの検出処理は、上述したように、再生された対象ブロック又は該対象ブロックに隣接する画素群を用いて行われる。
FIG. 8 shows a flowchart of information extraction processing executed by the
ステップ803では、情報抽出器610は、入力された第1動きベクトルと、動き検出器609により検出された第2動きベクトルとを比較する。ここで、情報抽出器610は、第1動きベクトルと第2動きベクトルが同じ場合、埋め込み情報が「0」であると判断し(ステップ804)、第1動きベクトルと第2動きベクトルが異なる場合、埋め込み情報が「1」であると判断する(ステップ805)。以後、ステップ801〜805の処理は全ての対象ブロックについて実行され、全ての対象ブロックについて実行完了すると、情報抽出器610は、抽出した埋め込み情報を情報出力端子611から外部へ出力する(ステップ807)。
In
なお、一部のブロックだけに情報を埋め込んだ場合は、該当の一部のブロックのみについて埋め込み情報の抽出を行なえばよい。 When information is embedded only in a part of the blocks, the embedded information may be extracted only for the part of the corresponding block.
また、上述した実施形態では、1つの対象ブロックに1ビットを埋め込む場合について説明したが、1ブロック当りに2ビットのデータを埋め込んだ場合でも同じ処理を行う。動き検出器609にて検出された第2動きベクトルについて、それが予測誤差の最も小さいものに対応するか、または2番目に小さいもの対応するか、または3番目に小さいものに対応するかによって、埋め込まれた情報を区別する。例えば、第1動きベクトルが第2動きベクトルと異なる場合に「00」、第1動きベクトルが第2動きベクトルと同じ場合には、さらにその第2動きベクトルによる予測誤差の最小のものに「01」、2番目に小さいものに「10」、3番目に小さいものに「11」として情報を抽出する。なお、3ビット以上の場合も同じように拡張すればよい。このように、情報を埋め込むデータを所定の規則に従って動きベクトルを変化させるのではなく、予測誤差の小さい順で情報を埋め込み、抽出するために、大局的に高画質の符号化データを生成することができる。また、再生動画像から、第2動きベクトルを求め、求めた第2動きベクトルに基づいて埋め込み情報を抽出することから、符号化側に用いられる情報埋め込み方法の規則を知る必要はなく、情報埋め込み方法に依存しないで情報の抽出ができる。すなわち、情報埋め込み方法を多少変更しても同じ復号装置で情報を抽出できるメリットがある。
In the above-described embodiment, the case where 1 bit is embedded in one target block has been described, but the same processing is performed even when 2 bits of data are embedded per block. Depending on whether the second motion vector detected by the
(動画像符号化プログラム・動画像復号プログラムと動作環境)
ところで、動画像符号化装置に係る発明は、コンピュータを動画像符号化装置として機能させるための動画像符号化プログラムに係る発明として捉えることができる。また、動画像復号装置に係る発明は、コンピュータを動画像復号装置として機能させるための動画像復号プログラムに係る発明として捉えることができる。動画像符号化プログラム及び動画像復号プログラムは、例えば、記録媒体に格納されて提供される。記録媒体としては、フレキシブルディスク、CD−ROM、DVD等の記録媒体や、半導体メモリ等が例示される。
(Video coding program / video decoding program and operating environment)
By the way, the invention relating to the moving picture coding apparatus can be regarded as an invention relating to a moving picture coding program for causing a computer to function as a moving picture coding apparatus. Further, the invention relating to the moving picture decoding apparatus can be regarded as an invention relating to a moving picture decoding program for causing a computer to function as a moving picture decoding apparatus. The moving image encoding program and the moving image decoding program are provided by being stored in a recording medium, for example. Examples of the recording medium include a recording medium such as a flexible disk, a CD-ROM, and a DVD, a semiconductor memory, and the like.
図9は、記録媒体10に記録されたプログラムを実行するためのコンピュータ30のハードウェア構成を示す図であり、図10は、記録媒体10に記録されたプログラムを実行するためのコンピュータ30の斜視図である。ここでのコンピュータ30としては、CPUを具備しソフトウエアによる処理や制御を行うDVDプレーヤ、セットトップボックス、携帯電話などを含む。
FIG. 9 is a diagram illustrating a hardware configuration of the
図9に示すように、コンピュータ30は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読み取り装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイ18と、入力装置であるマウス20及びキーボード22と、データ等の送受信を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読み取り装置12に挿入されると、読み取り装置12から記録媒体10に格納された動画像符号化プログラム及び動画像復号プログラムにアクセス可能になり、当該動画像符号化プログラム及び動画像復号プログラムによって、コンピュータ30は、本発明に係る動画像符号化装置及び動画像復号装置として動作することが可能になる。
As shown in FIG. 9, a
図10に示すように、動画像符号化プログラム及び動画像復号プログラムは、搬送波に重畳されたコンピュータデータ信号40として、有線ネットワーク・無線ネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した動画像符号化プログラム及び動画像復号プログラムをメモリ16に格納し、当該動画像符号化プログラム及び動画像復号プログラムを実行することができる。
As shown in FIG. 10, the moving picture encoding program and the moving picture decoding program may be provided as a computer data signal 40 superimposed on a carrier wave via a wired network / wireless network. In this case, the
以上説明した本実施形態によれば、符号化側に用いられる情報埋め込み方法の規則に依存しないで、情報埋め込み方法を多少変更しても既存の復号装置で情報の抽出ができるメリットがある。また、復号装置で動きベクトルの判別がさえできれば、符号化装置で大局的により少ない誤差の動きベクトルで情報を埋め込むことができ、従来技術より高い画質で情報を埋め込むことが可能となる。 According to the present embodiment described above, there is an advantage that information can be extracted with an existing decoding device even if the information embedding method is slightly changed without depending on the rules of the information embedding method used on the encoding side. As long as the motion vector can be discriminated by the decoding device, the information can be embedded with a motion vector with a smaller overall error in the encoding device, and the information can be embedded with higher image quality than the prior art.
10…記録媒体、12…読み取り装置、14…作業用メモリ、16…メモリ、18…ディスプレイ、20…マウス、22…キーボード、24…通信装置、30…コンピュータ、40…コンピュータデータ信号、100…動画像符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…引き算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…エントロピー符号化器、112…出力端子、113…動き検出器、114…動きベクトル選択器、402…対象ブロック、403…隣接する画素群、406…参照画像、408…候補画素群、409…探索領域、600…動画像復号装置、601…入力端子、602…データ解析器、603…逆量子化器、604…逆変換器、605…加算器、606…画像出力端子、607…フレームメモリ、608…予測信号生成器、609…動き検出器、610…情報抽出器、611…情報出力端子。
DESCRIPTION OF
Claims (12)
入力された前記ビットストリームより、前記差分信号及び前記動きベクトル情報を復号し、前記参照画像より前記動きベクトル情報によって特定される予測領域の信号と前記差分信号とから前記動画像を復元することで、再生動画像を生成する画像復号手段と、
前記生成された再生動画像と前記参照画像とから、所定の方法で、前記復号された動きベクトル情報が属する前記再生動画像内の対象領域に対する基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて、前記動画像に埋め込まれた情報を抽出する情報抽出手段と、
を具備することを特徴とする動画像復号装置。 A moving image is divided into a plurality of target regions, a motion vector information indicating a prediction region and a position of the prediction region is determined from a restored reference image for the target region, a difference signal between the prediction region and the target region, and Input means for inputting a bitstream including data obtained by encoding the motion vector information;
By decoding the difference signal and the motion vector information from the input bitstream, and restoring the moving image from the prediction region signal specified by the motion vector information and the difference signal from the reference image. Image decoding means for generating a playback moving image;
A reference motion vector for a target region in the playback video to which the decoded motion vector information belongs is detected from the generated playback video and the reference image by a predetermined method, and the motion vector information and the reference video An information extracting unit that compares a reference motion vector and extracts information embedded in the moving image based on the comparison result;
A moving picture decoding apparatus comprising:
前記対象画像を複数の対象領域に分割し、前記対象領域について再生済の参照画像より予測信号を特定するための複数の動きベクトル情報を検出する動き検出手段と、
前記複数の動きベクトル情報のうち1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する予測信号生成手段と、
前記対象領域と前記予測信号との差分を符号化し、符号化差分信号を生成する符号化手段と、
前記符号化差分信号を復元し、復元した符号化差分信号と前記予測信号とを加算することで、再生動画像を生成する再生手段と、
予測信号を生成する際の参照画像として用いられる前記再生動画像を格納する格納手段と、
前記動画像に埋め込むべき情報を前記動画像に埋め込むための処理を実行する情報埋め込み手段と、を具備し、
前記動き検出手段は、前記対象領域について再生済の参照画像より第1動き検出方法で第1動きベクトルを検出し、前記再生動画像と前記参照画像とに基づいて動きを検出する第2動き検出方法で、前記第1動きベクトルと異なる第2動きベクトルを検出し、
前記情報埋め込み手段は、前記埋め込むべき情報に基づいて前記第1動きベクトルと前記第2動きベクトルのいずれかを選択し、
前記予測信号生成手段は、選択された前記第1動きベクトル又は前記第2動きベクトルを前記1つの動きベクトル情報とし、該1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する
ことを特徴とする動画像符号化装置。 Among a plurality of images constituting a moving image, an input means for inputting a target image to be encoded;
A motion detection unit that divides the target image into a plurality of target regions and detects a plurality of pieces of motion vector information for specifying a prediction signal from a reference image reproduced for the target region;
Prediction signal generating means for generating a prediction signal for the target region based on one motion vector information among the plurality of motion vector information;
Encoding means for encoding a difference between the target region and the prediction signal and generating an encoded difference signal;
Reproducing means for reconstructing the encoded differential signal and adding the reconstructed encoded differential signal and the prediction signal to generate a reproduced moving image;
Storage means for storing the reproduced moving image used as a reference image when generating a prediction signal;
Information embedding means for executing processing for embedding information to be embedded in the moving image in the moving image,
The motion detection means detects a first motion vector by a first motion detection method from a reproduced reference image for the target area, and detects a motion based on the reproduced moving image and the reference image. Detecting a second motion vector different from the first motion vector,
The information embedding means selects either the first motion vector or the second motion vector based on the information to be embedded,
The prediction signal generation means uses the selected first motion vector or the second motion vector as the one motion vector information, and generates a prediction signal for the target region based on the one motion vector information. A moving picture coding apparatus characterized by that.
動画像を複数の対象領域に分割し、前記対象領域について復元済の参照画像より予測領域及び前記予測領域の位置を示す動きベクトル情報を決定し、前記予測領域と前記対象領域との差分信号及び前記動きベクトル情報を符号化してなるデータ、を含むビットストリームを入力する入力ステップと、
入力された前記ビットストリームより、前記差分信号及び前記動きベクトル情報を復号し、前記参照画像より前記動きベクトル情報によって特定される予測領域の信号と前記差分信号とから前記動画像を復元することで、再生動画像を生成する画像復号ステップと、
前記生成された再生動画像と前記参照画像とから、所定の方法で、前記復号された動きベクトル情報が属する前記再生動画像内の対象領域に対する基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて、前記動画像に埋め込まれた情報を抽出する情報抽出ステップと、
を具備することを特徴とする動画像復号方法。 A moving picture decoding method executed by a moving picture decoding apparatus,
A moving image is divided into a plurality of target regions, a motion vector information indicating a prediction region and a position of the prediction region is determined from a restored reference image for the target region, a difference signal between the prediction region and the target region, and An input step of inputting a bitstream including data obtained by encoding the motion vector information;
By decoding the difference signal and the motion vector information from the input bitstream, and restoring the moving image from the prediction region signal specified by the motion vector information and the difference signal from the reference image. An image decoding step for generating a playback moving image;
A reference motion vector for a target region in the playback moving image to which the decoded motion vector information belongs is detected from the generated playback moving image and the reference image by a predetermined method, and the motion vector information and the reference image are detected. An information extraction step of comparing a reference motion vector and extracting information embedded in the moving image based on the comparison result;
A moving picture decoding method comprising:
動画像を構成する複数の画像のうち、符号化の対象となる対象画像を入力する入力ステップと、
前記対象画像を複数の対象領域に分割し、前記対象領域について再生済の参照画像より予測信号を特定するための複数の動きベクトル情報を検出する動き検出ステップと、
前記複数の動きベクトル情報のうち1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する予測信号生成ステップと、
前記対象領域と前記予測信号との差分を符号化し、符号化差分信号を生成する符号化ステップと、
前記符号化差分信号を復元し、復元した符号化差分信号と前記予測信号とを加算することで、再生動画像を生成する再生ステップと、
予測信号を生成する際の参照画像として用いられる前記再生動画像を格納する格納ステップと、
前記動画像に埋め込むべき情報を前記動画像に埋め込むための処理を実行する情報埋め込みステップと、を具備し、
前記動き検出ステップでは、前記対象領域について再生済の参照画像より第1動き検出方法で第1動きベクトルを検出し、前記再生動画像と前記参照画像とに基づいて動きを検出する第2動き検出方法で、前記第1動きベクトルと異なる第2動きベクトルを検出し、
前記情報埋め込みステップでは、前記埋め込むべき情報に基づいて前記第1動きベクトルと前記第2動きベクトルのいずれかを選択し、
前記予測信号生成ステップでは、選択された前記第1動きベクトル又は前記第2動きベクトルを前記1つの動きベクトル情報とし、該1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する
ことを特徴とする動画像符号化方法。 A video encoding method executed by a video encoding device,
An input step of inputting a target image to be encoded among a plurality of images constituting the moving image;
A motion detection step of dividing the target image into a plurality of target regions, and detecting a plurality of motion vector information for specifying a prediction signal from a reference image reproduced for the target region;
A prediction signal generating step for generating a prediction signal for the target region based on one motion vector information among the plurality of motion vector information;
An encoding step of encoding a difference between the target region and the prediction signal and generating an encoded difference signal;
Regenerating the encoded differential signal, and adding the reconstructed encoded differential signal and the prediction signal to generate a reproduction moving image; and
A storing step of storing the reproduced moving image used as a reference image when generating a prediction signal;
An information embedding step for executing processing for embedding information to be embedded in the moving image in the moving image,
In the motion detection step, a second motion detection is performed in which a first motion vector is detected from a reference image that has been reproduced for the target region by a first motion detection method, and motion is detected based on the reproduced moving image and the reference image. Detecting a second motion vector different from the first motion vector,
In the information embedding step, either the first motion vector or the second motion vector is selected based on the information to be embedded,
In the prediction signal generation step, the selected first motion vector or the second motion vector is used as the one motion vector information, and a prediction signal for the target region is generated based on the one motion vector information. A moving image encoding method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007100955A JP4685825B2 (en) | 2007-04-06 | 2007-04-06 | Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007100955A JP4685825B2 (en) | 2007-04-06 | 2007-04-06 | Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008259059A true JP2008259059A (en) | 2008-10-23 |
JP4685825B2 JP4685825B2 (en) | 2011-05-18 |
Family
ID=39982171
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007100955A Expired - Fee Related JP4685825B2 (en) | 2007-04-06 | 2007-04-06 | Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4685825B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015023318A (en) * | 2013-07-16 | 2015-02-02 | 富士通株式会社 | Image processing device, image processing method and program |
CN110268716A (en) * | 2017-02-15 | 2019-09-20 | 苹果公司 | Equivalent rectangular object data are handled to compensate distortion by spherical projection |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11220736A (en) * | 1998-01-30 | 1999-08-10 | Canon Inc | Image processor and, method and recording medium thereof |
JP2003284023A (en) * | 2001-11-28 | 2003-10-03 | Victor Co Of Japan Ltd | Decoding and receiving programs for variable length coding data |
JP2004320765A (en) * | 2003-04-11 | 2004-11-11 | Fr Telecom | Method, apparatus and computer program for watermarking in video image sequence |
JP2004343501A (en) * | 2003-05-16 | 2004-12-02 | Fujitsu Ltd | Information embedding method and information processor |
JP2007043651A (en) * | 2005-07-05 | 2007-02-15 | Ntt Docomo Inc | Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program |
-
2007
- 2007-04-06 JP JP2007100955A patent/JP4685825B2/en not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11220736A (en) * | 1998-01-30 | 1999-08-10 | Canon Inc | Image processor and, method and recording medium thereof |
JP2003284023A (en) * | 2001-11-28 | 2003-10-03 | Victor Co Of Japan Ltd | Decoding and receiving programs for variable length coding data |
JP2004320765A (en) * | 2003-04-11 | 2004-11-11 | Fr Telecom | Method, apparatus and computer program for watermarking in video image sequence |
JP2004343501A (en) * | 2003-05-16 | 2004-12-02 | Fujitsu Ltd | Information embedding method and information processor |
JP2007043651A (en) * | 2005-07-05 | 2007-02-15 | Ntt Docomo Inc | Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015023318A (en) * | 2013-07-16 | 2015-02-02 | 富士通株式会社 | Image processing device, image processing method and program |
CN110268716A (en) * | 2017-02-15 | 2019-09-20 | 苹果公司 | Equivalent rectangular object data are handled to compensate distortion by spherical projection |
CN110268716B (en) * | 2017-02-15 | 2023-04-28 | 苹果公司 | Equivalent rectangular object data processing by spherical projection to compensate for distortion |
Also Published As
Publication number | Publication date |
---|---|
JP4685825B2 (en) | 2011-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5686499B2 (en) | Image predictive encoding apparatus, method and program, image predictive decoding apparatus, method and program, and encoding / decoding system and method | |
KR101366242B1 (en) | Method for encoding and decoding motion model parameter, and method and apparatus for video encoding and decoding using motion model parameter | |
JP6559309B2 (en) | Image predictive decoding method | |
JP5313916B2 (en) | Video coding and decoding method and apparatus using texture synthesis | |
JP4993676B2 (en) | Image coding apparatus and image coding method | |
US20100195722A1 (en) | Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program | |
JP2007116351A (en) | Image prediction coding apparatus, image prediction decoding apparatus, image prediction coding method, image prediction decoding method, image prediction coding program, and image prediction decoding program | |
JP2010268504A (en) | Method and apparatus for coding motion information | |
WO2010032693A1 (en) | Moving image encoding device, moving image decoding device, moving image encoding method, moving image decoding method, moving image encoding program, and moving image decoding program | |
JP2007300380A (en) | Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program | |
KR102267770B1 (en) | Method and device for determining a set of modifiable elements in a group of pictures | |
JP2008092352A (en) | Image predictive coder, image predictive coding method, image predictive coding program, image prediction decoder, image predictive decoding method, and image predictive decoding program | |
JP4153410B2 (en) | Hierarchical encoding method and apparatus, hierarchical decoding method and apparatus, hierarchical encoding program and recording medium recording the program, hierarchical decoding program and recording medium recording the program | |
WO2015028098A1 (en) | Method and system for embedding information and authenticating a h.264 video using a digital watermark | |
JP4685825B2 (en) | Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program | |
US20130094692A1 (en) | Video watermarking method resistant to temporal desynchronization attacks | |
JP5139995B2 (en) | Method and apparatus for watermarking a stream | |
JP4945541B2 (en) | Digital watermark embedding detection method using degraded host signal | |
JP5698644B2 (en) | Video predictive encoding method, video predictive encoding device, video predictive encoding program, video predictive decoding method, video predictive decoding device, and video predictive decode program | |
JP2007511938A (en) | Video signal encoding method | |
KR101431046B1 (en) | Video data encoding method of encoding video data for fruc, apparatus and storage medium thereof | |
Mohamed et al. | Real-time motion estimation based video steganography with preserved consistency and local optimality | |
JP2006217339A (en) | Coding apparatus and method, decoding apparatus and method, information processing system and method, recording medium, and program | |
Lu et al. | Multipurpose video watermarking algorithm in the hybrid compressed domain | |
Ridgway et al. | Developing a Video Steganography Toolkit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100222 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110210 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140218 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4685825 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |