JP2008259059A - Moving image decoding apparatus, method, and program, and moving image encoding apparatus, method, and program - Google Patents

Moving image decoding apparatus, method, and program, and moving image encoding apparatus, method, and program Download PDF

Info

Publication number
JP2008259059A
JP2008259059A JP2007100955A JP2007100955A JP2008259059A JP 2008259059 A JP2008259059 A JP 2008259059A JP 2007100955 A JP2007100955 A JP 2007100955A JP 2007100955 A JP2007100955 A JP 2007100955A JP 2008259059 A JP2008259059 A JP 2008259059A
Authority
JP
Japan
Prior art keywords
motion vector
information
moving image
image
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007100955A
Other languages
Japanese (ja)
Other versions
JP4685825B2 (en
Inventor
Chunsen Bun
チュンセン ブン
Seiichiro Hanya
精一郎 半谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
NTT Docomo Inc
Original Assignee
Tokyo University of Science
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science, NTT Docomo Inc filed Critical Tokyo University of Science
Priority to JP2007100955A priority Critical patent/JP4685825B2/en
Publication of JP2008259059A publication Critical patent/JP2008259059A/en
Application granted granted Critical
Publication of JP4685825B2 publication Critical patent/JP4685825B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve a degree of freedom for maintaining image quality when embedding information, and to extract information even if a method of embedding information is changed. <P>SOLUTION: A moving image decoding apparatus includes: a means for dividing a moving image into a plurality of target regions, determining motion vector information indicating a predictive region and a position of the predictive region from a decoded reference image for each target region, and inputting a bit stream containing a difference signal between the predictive region and the target region and data resulting from encoding the motion vector information; a means for decoding the difference signal and the motion vector information from the bit stream and generating a regenerative moving image from a signal of the predictive region specified by the motion vector information and the difference signal from the reference image; and a means for detecting a reference motion vector for a target region within the regenerative moving image to which the motion vector information belongs, comparing the motion vector information with the reference motion vector, and extracting the embedded information on the basis of a comparison result. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、動画像に情報を埋め込むための動画像符号化装置、方法及びプログラム、並びに動画像復号装置、方法及びプログラムに関するもので、特に動きベクトルを利用した情報の埋め込みに伴う動画像符号化・復号技術に関するものである。   The present invention relates to a moving picture encoding apparatus, method and program for embedding information in a moving picture, and a moving picture decoding apparatus, method and program, and in particular, moving picture encoding accompanying information embedding using a motion vector. -It relates to decoding technology.

動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。動画像の場合はMPEG1、2、4やH.261〜H.264の方式が広く用いられている。動画像の符号化では、時間方向で隣接する他の画像を用いて符号化の対象となる対象画像の予測信号を生成して、対象画像と予測信号との差分を符号化することにより、データ量の削減を実現する。   In order to efficiently transmit and store moving image data, a compression encoding technique is used. In the case of moving images, MPEG1, 2, 4 and H.264 are used. 261-H. H.264 is widely used. In the encoding of a moving image, a prediction signal of a target image to be encoded is generated using another image that is adjacent in the time direction, and the difference between the target image and the prediction signal is encoded. Realize volume reduction.

例えばH.264では、1フレームの画像を16×16画素からなるブロックの領域に分割し、画像をこのブロック単位で符号化処理を行う。フレーム間符号化では、符号化対象となる画像の対象ブロックに対し、符号化済で復元された他のフレームを参照画像として動き検出を行い、誤差の最も少ない予測信号を決定する。次にこの対象ブロックと該予測信号との差分値を求めて、離散コサイン変換と量子化処理を行なう。量子化された離散コサイン変換の係数及び予測信号を特定するための動きベクトルをエントロピー符号化し、符号化データを生成する。   For example, H.C. In H.264, an image of one frame is divided into blocks of 16 × 16 pixels, and the image is encoded in units of blocks. In interframe coding, motion detection is performed on a target block of an image to be encoded using another frame that has been encoded and restored as a reference image, and a prediction signal with the least error is determined. Next, a difference value between the target block and the prediction signal is obtained, and discrete cosine transform and quantization processing are performed. A quantized discrete cosine transform coefficient and a motion vector for specifying a prediction signal are entropy-coded to generate encoded data.

ところで、このように圧縮符号化された動画像データに、透かし情報や該動画像に関連する情報(例えばテロップ情報など)を埋め込む技術が知られている。例えば、動きベクトルを利用した情報の埋め込みについては、下記の非特許文献1、2に開示されている。   By the way, a technique for embedding watermark information and information related to the moving image (for example, telop information) in the moving image data compressed and encoded in this way is known. For example, information embedding using motion vectors is disclosed in Non-Patent Documents 1 and 2 below.

非特許文献1によると、電子透かし情報を埋め込むエンコーダでは、まず、最適な動きベクトルを1画素単位で求める。電子透かし情報から1ビット取り出し、そのビットの値(0または1)によって、半画素単位の動きベクトルの探索範囲を限定し、1画素単位で求めた最適な動きベクトルが指す参照画素の周囲の8つの半画素から最も原画素に近い画素を求め、求めた画素を指すベクトルを新たな動きベクトルとする。電子透かし情報を取り出すデコーダでは、動きベクトルを復号し、x座標、y座標が半画素か否かを調べる等して、最終的にx座標とy座標の組み合わせにより透かし情報を算出する。   According to Non-Patent Document 1, an encoder that embeds digital watermark information first obtains an optimal motion vector in units of one pixel. One bit is extracted from the digital watermark information, and the search range of the motion vector in units of half pixels is limited by the value (0 or 1) of the bit, and the 8 pixels around the reference pixel pointed to by the optimum motion vector obtained in units of one pixel. A pixel closest to the original pixel is obtained from two half pixels, and a vector indicating the obtained pixel is set as a new motion vector. The decoder that extracts the digital watermark information decodes the motion vector, checks whether or not the x-coordinate and y-coordinate are half pixels, and finally calculates the watermark information based on the combination of the x-coordinate and y-coordinate.

非特許文献2によると、動きベクトルのx、y方向成分から、関数F(x,y)=x+y(mod 2)を定義する。この関数値が埋め込み情報ビットの0、1と等しくなるように動きベクトルを移動させることで、情報を埋め込む。この動きベクトルの移動には、x、y方向それぞれに+1又は−1だけ移動させることができるので、x、y方向の組合せで計4通りの選択肢はあるものの、画像の劣化を押さえるために、上記4通りのうち、最適画像との誤差が最小になる位置に移動させる方法を用いる。
「MPEG2における「デジタル透かし」利用による著作権保護の一検討」、「電子情報通信学会 暗号と情報セキュリティシンポジウム」、(1997年1月29日)、中沢英徳、小舘亮之、ジェフモリソン、富永英義著、(社)電子情報通信学会発行 「改ざんを考慮した動画像の電子透かしに関する二、三の考察」、(2000年4月20日)、角野英之、稲葉宏幸、笠原正雄著、(社)映像情報メディア学会発行、593頁〜600頁
According to Non-Patent Document 2, a function F (x, y) = x + y (mod 2) is defined from x and y direction components of a motion vector. Information is embedded by moving the motion vector so that this function value is equal to 0 and 1 of the embedded information bits. This movement vector can be moved by +1 or -1 in the x and y directions, respectively. Therefore, although there are a total of four choices in the combination of the x and y directions, in order to suppress image degradation, Of the above four methods, a method of moving to a position where the error from the optimum image is minimized is used.
"A Study on Copyright Protection by Using" Digital Watermark "in MPEG2", "Symposium on Cryptography and Information Security" (January 29, 1997), Hidenori Nakazawa, Ryoyuki Komine, Jeff Morrison, Hideyoshi Tominaga Written by the Institute of Electronics, Information and Communication Engineers "A few considerations regarding digital watermarking of moving images considering tampering" (April 20, 2000), Hideyuki Tsuno, Hiroyuki Inaba, Masao Kasahara, The Institute of Image Information and Television Engineers, 593-600 page

上記の2つの従来技術では、所定の規則に従って動きベクトルを限定し情報を埋め込むことになっているため、維持できる画質も限定的になるという課題がある。非特許文献1について考えてみる。例えば、埋め込む情報が「0」の場合、半画素単位の動きベクトルが第1探索範囲に限定されるとすると、第1探索範囲とは異なる第2探索範囲に、第1探索範囲よりも誤差の少ない予測信号があったとしても、該予測信号を与える動きベクトルを使えないことになる。すなわち、情報を埋め込む規則が定まっていることによって、画質を維持するための自由度も限られてしまうという問題点がある。同様に非特許文献2でも、関数値が埋め込み情報と等しくなるように動きベクトルを移動させる仕組みになっているので、画質を維持するための自由度も限られてしまうという問題点がある。   In the above two conventional techniques, there is a problem that the image quality that can be maintained is limited because the motion vector is limited and information is embedded according to a predetermined rule. Consider Non-Patent Document 1. For example, when the information to be embedded is “0”, if the motion vector in units of half pixels is limited to the first search range, the second search range different from the first search range has an error larger than that of the first search range. Even if there are few prediction signals, the motion vector that gives the prediction signal cannot be used. That is, there is a problem that the degree of freedom for maintaining the image quality is limited due to the rules for embedding information. Similarly, Non-Patent Document 2 has a problem that the degree of freedom for maintaining the image quality is limited because the motion vector is moved so that the function value is equal to the embedded information.

また、上記の2つの従来技術において、復号側は符号化側と同じ規則で情報を抽出する必要がある。すなわち、情報を埋め込む方法を変える度に情報を抽出するアルゴリズムも変えないといけないことになる。このような方式は、電子透かしのように埋め込み情報を固く保護したい場合には有効であるが、文字放送のテロップやインターネットのURLなどの情報を埋め込む場合のように、埋め込み方法を変えても既存の復号装置で上記埋め込んだ情報を抽出可能としたい場合には不向きである。   Further, in the above two conventional techniques, the decoding side needs to extract information according to the same rules as the encoding side. In other words, every time the information embedding method is changed, the algorithm for extracting information must be changed. Such a method is effective when it is desired to firmly protect the embedded information as in a digital watermark, but the existing method can be changed even if the embedding method is changed as in the case of embedding information such as a teletext of teletext or an Internet URL. It is not suitable when it is desired that the embedded information can be extracted by the decoding device.

本発明は、上記の課題を解決するために成されたものであり、情報を埋め込む際に画質を維持するための自由度を高めると同時に、情報を埋め込む方法を変更しても情報を抽出可能とすることを目的とする。   The present invention has been made to solve the above-described problems, and can improve the degree of freedom for maintaining image quality when embedding information, and at the same time can extract information even if the method of embedding information is changed. It aims to be.

上記課題を解決するために、本発明に係る動画像復号装置は、動画像を複数の対象領域に分割し、前記対象領域について復元済の参照画像より予測領域及び前記予測領域の位置を示す動きベクトル情報を決定し、前記予測領域と前記対象領域との差分信号及び前記動きベクトル情報を符号化してなるデータ、を含むビットストリームを入力する入力手段と、入力された前記ビットストリームより、前記差分信号及び前記動きベクトル情報を復号し、前記参照画像より前記動きベクトル情報によって特定される予測領域の信号と前記差分信号とから前記動画像を復元することで、再生動画像を生成する画像復号手段と、前記生成された再生動画像と前記参照画像とから、所定の方法で、前記復号された動きベクトル情報が属する前記再生動画像内の対象領域に対する基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて、前記動画像に埋め込まれた情報を抽出する情報抽出手段と、を具備することを特徴とする。   In order to solve the above-described problem, the video decoding device according to the present invention divides a video into a plurality of target areas, and shows the prediction area and the position of the prediction area from the restored reference image for the target area. Input means for determining a vector information and inputting a bitstream including a difference signal between the prediction region and the target region and data obtained by encoding the motion vector information; and the difference from the input bitstream. Image decoding means for decoding a signal and the motion vector information, and generating a reproduced moving image by restoring the moving image from the prediction region signal specified by the motion vector information and the difference signal from the reference image And the reproduced moving image to which the decoded motion vector information belongs in a predetermined method from the generated reproduced moving image and the reference image An information extraction means for detecting a reference motion vector for the target area of the image, comparing the motion vector information with the reference motion vector, and extracting information embedded in the moving image based on the comparison result. It is characterized by doing.

上記の動画像復号装置は、生成された再生動画像と参照画像とから、所定の方法で、上記復号された動きベクトル情報が属する再生動画像内の対象領域に対する基準動きベクトルを検出し、動きベクトル情報と基準動きベクトルとを比較し、該比較結果に基づいて上記埋め込まれた情報を抽出する。このため、符号化側で用いられた情報埋め込み方法の規則を知る必要はなく、情報埋め込み方法に依存することなく、埋め込み情報の抽出ができる。すなわち、情報埋め込み方法を多少変更しても、復号装置で情報を抽出できるメリットがある。   The moving image decoding apparatus detects a reference motion vector for a target region in a reproduced moving image to which the decoded motion vector information belongs, from a generated reproduced moving image and a reference image, by a predetermined method, The vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result. Therefore, it is not necessary to know the rules of the information embedding method used on the encoding side, and the embedded information can be extracted without depending on the information embedding method. That is, even if the information embedding method is slightly changed, there is an advantage that information can be extracted by the decoding device.

なお、本発明に係る動画像復号装置では、情報抽出手段は、前記動きベクトル情報が属する前記再生動画像内の対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較することにより前記基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて前記埋め込まれた情報を抽出する構成とすることが望ましい。   In the moving picture decoding apparatus according to the present invention, the information extracting means includes an adjacent area composed of reproduced pixels adjacent to a target area in the reproduced moving picture to which the motion vector information belongs, and a signal of the reference image. Preferably, the reference motion vector is detected by comparing the motion vector information, the motion vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result.

本発明に係る動画像符号化装置は、動画像を構成する複数の画像のうち、符号化の対象となる対象画像を入力する入力手段と、前記対象画像を複数の対象領域に分割し、前記対象領域について再生済の参照画像より予測信号を特定するための複数の動きベクトル情報を検出する動き検出手段と、前記複数の動きベクトル情報のうち1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する予測信号生成手段と、前記対象領域と前記予測信号との差分を符号化し、符号化差分信号を生成する符号化手段と、前記符号化差分信号を復元し、復元した符号化差分信号と前記予測信号とを加算することで、再生動画像を生成する再生手段と、予測信号を生成する際の参照画像として用いられる前記再生動画像を格納する格納手段と、前記動画像に埋め込むべき情報を前記動画像に埋め込むための処理を実行する情報埋め込み手段と、を具備し、前記動き検出手段は、前記対象領域について再生済の参照画像より第1動き検出方法で第1動きベクトルを検出し、前記再生動画像と前記参照画像とに基づいて動きを検出する第2動き検出方法で、前記第1動きベクトルと異なる第2動きベクトルを検出し、前記情報埋め込み手段は、前記埋め込むべき情報に基づいて前記第1動きベクトルと前記第2動きベクトルのいずれかを選択し、前記予測信号生成手段は、選択された前記第1動きベクトル又は前記第2動きベクトルを前記1つの動きベクトル情報とし、該1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する、ことを特徴とする。   The moving image encoding apparatus according to the present invention divides the target image into a plurality of target regions, an input unit that inputs a target image to be encoded among a plurality of images constituting the moving image, Based on motion vector information for detecting a plurality of motion vector information for specifying a prediction signal from a reproduced reference image for the target region, and the target region based on one motion vector information among the plurality of motion vector information A prediction signal generation unit that generates a prediction signal for the signal, an encoding unit that encodes a difference between the target region and the prediction signal, and generates an encoded differential signal, and restores and restores the encoded differential signal A reproduction unit that generates a reproduction moving image by adding the encoded difference signal and the prediction signal, and a storage unit that stores the reproduction moving image used as a reference image when generating the prediction signal And an information embedding unit that executes processing for embedding information to be embedded in the moving image in the moving image, wherein the motion detecting unit uses a first motion detection method based on a reference image reproduced for the target area. The second motion detection method detects a first motion vector and detects a motion based on the reproduced moving image and the reference image, detects a second motion vector different from the first motion vector, and embeds the information The means selects either the first motion vector or the second motion vector based on the information to be embedded, and the prediction signal generating means selects the selected first motion vector or the second motion vector. The one motion vector information is used, and a prediction signal for the target region is generated based on the one motion vector information.

前述したように、動画像復号装置からみて情報を埋め込む規則が定まっていないので、動画像符号化装置では画質を維持するための自由度が高くなる。すなわち、動画像復号装置において動きベクトルの判別さえできれば、動画像符号化装置では大局的に、より少ない誤差の動きベクトルで情報を埋め込むことができ、従来技術よりも高い画質で情報を埋め込むことが可能となる。   As described above, since the rules for embedding information are not determined from the viewpoint of the moving picture decoding apparatus, the moving picture encoding apparatus has a high degree of freedom for maintaining the image quality. In other words, as long as the motion vector can be discriminated in the video decoding device, the video encoding device can embed information with a motion vector with fewer errors and embed information with higher image quality than the prior art. It becomes possible.

なお、本発明に係る動画像符号化装置では、前記動き検出手段は、前記第2動き検出方法として、前記再生動画像内にある対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較し、該比較結果に基づいて前記第2動きベクトルを検出する構成とすることが望ましい。   In the moving image encoding device according to the present invention, the motion detection means, as the second motion detection method, includes an adjacent region composed of reproduced pixels adjacent to a target region in the reproduced moving image, and the It is desirable that the second motion vector is detected based on the comparison result with a reference image signal.

また、本発明に係る動画像符号化装置では、前記動き検出手段は、前記第2動き検出方法として、前記第1動きベクトルで特定される予測信号による誤差値から所定の幅以上離れた誤差値の予測信号を与える前記第2動きベクトルを検出する構成とすることが望ましい。   In the moving image encoding apparatus according to the present invention, the motion detection means may use an error value separated from an error value by a prediction signal specified by the first motion vector by a predetermined width or more as the second motion detection method. It is desirable that the second motion vector that gives the prediction signal is detected.

ところで、動画像復号装置に係る発明は、以下のように、動画像復号方法に係る発明及び動画像復号プログラムに係る発明として捉えることができ、同様の効果を奏することができる。   By the way, the invention relating to the moving picture decoding apparatus can be regarded as the invention relating to the moving picture decoding method and the invention relating to the moving picture decoding program as described below, and can achieve the same effects.

本発明に係る動画像復号方法は、動画像復号装置により実行される動画像復号方法であって、動画像を複数の対象領域に分割し、前記対象領域について復元済の参照画像より予測領域及び前記予測領域の位置を示す動きベクトル情報を決定し、前記予測領域と前記対象領域との差分信号及び前記動きベクトル情報を符号化してなるデータ、を含むビットストリームを入力する入力ステップと、入力された前記ビットストリームより、前記差分信号及び前記動きベクトル情報を復号し、前記参照画像より前記動きベクトル情報によって特定される予測領域の信号と前記差分信号とから前記動画像を復元することで、再生動画像を生成する画像復号ステップと、前記生成された再生動画像と前記参照画像とから、所定の方法で、前記復号された動きベクトル情報が属する前記再生動画像内の対象領域に対する基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて、前記動画像に埋め込まれた情報を抽出する情報抽出ステップと、を具備することを特徴とする。   A moving image decoding method according to the present invention is a moving image decoding method executed by a moving image decoding apparatus, wherein a moving image is divided into a plurality of target regions, and the target region is predicted from a restored reference image and An input step for determining a motion vector information indicating a position of the prediction region, and inputting a bit stream including a difference signal between the prediction region and the target region and data obtained by encoding the motion vector information; and In addition, the difference signal and the motion vector information are decoded from the bitstream, and the moving image is restored from the prediction region signal specified by the motion vector information and the difference signal from the reference image. An image decoding step for generating a moving image, and the decoded moving image is generated by a predetermined method from the generated reproduction moving image and the reference image. A reference motion vector for a target region in the playback moving image to which vector information belongs is detected, the motion vector information is compared with the reference motion vector, and information embedded in the moving image is determined based on the comparison result. And an information extracting step for extracting.

このとき、情報抽出ステップでは、前記動きベクトル情報が属する前記再生動画像内の対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較することにより前記基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて前記埋め込まれた情報を抽出することが望ましい。   At this time, in the information extraction step, the reference motion vector is compared by comparing an adjacent region composed of reproduced pixels adjacent to the target region in the reproduced moving image to which the motion vector information belongs and a signal of the reference image. It is preferable that the motion vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result.

本発明に係る動画像復号プログラムは、コンピュータを、請求項1又は2に記載の動画像復号装置として機能させるための動画像復号プログラムである。   A moving picture decoding program according to the present invention is a moving picture decoding program for causing a computer to function as the moving picture decoding apparatus according to claim 1 or 2.

また、動画像符号化装置に係る発明は、以下のように、動画像符号化方法に係る発明及び動画像符号化プログラムに係る発明として捉えることができ、同様の効果を奏することができる。   In addition, the invention relating to the moving image encoding apparatus can be regarded as the invention relating to the moving image encoding method and the invention relating to the moving image encoding program as described below, and can achieve the same effects.

本発明に係る動画像符号化方法は、動画像符号化装置により実行される動画像符号化方法であって、動画像を構成する複数の画像のうち、符号化の対象となる対象画像を入力する入力ステップと、前記対象画像を複数の対象領域に分割し、前記対象領域について再生済の参照画像より予測信号を特定するための複数の動きベクトル情報を検出する動き検出ステップと、前記複数の動きベクトル情報のうち1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する予測信号生成ステップと、前記対象領域と前記予測信号との差分を符号化し、符号化差分信号を生成する符号化ステップと、前記符号化差分信号を復元し、復元した符号化差分信号と前記予測信号とを加算することで、再生動画像を生成する再生ステップと、予測信号を生成する際の参照画像として用いられる前記再生動画像を格納する格納ステップと、前記動画像に埋め込むべき情報を前記動画像に埋め込むための処理を実行する情報埋め込みステップと、を具備し、前記動き検出ステップでは、前記対象領域について再生済の参照画像より第1動き検出方法で第1動きベクトルを検出し、前記再生動画像と前記参照画像とに基づいて動きを検出する第2動き検出方法で、前記第1動きベクトルと異なる第2動きベクトルを検出し、前記情報埋め込みステップでは、前記埋め込むべき情報に基づいて前記第1動きベクトルと前記第2動きベクトルのいずれかを選択し、前記予測信号生成ステップでは、選択された前記第1動きベクトル又は前記第2動きベクトルを前記1つの動きベクトル情報とし、該1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成することを特徴とする。   A moving image encoding method according to the present invention is a moving image encoding method executed by a moving image encoding device, and inputs a target image to be encoded among a plurality of images constituting the moving image. An input step that divides the target image into a plurality of target regions, and detects a plurality of motion vector information for specifying a prediction signal from a reference image reproduced for the target region, A prediction signal generation step for generating a prediction signal for the target region based on one motion vector information of the motion vector information, a difference between the target region and the prediction signal is encoded, and an encoded difference signal is An encoding step to generate, a reproduction step of restoring the encoded differential signal, and adding the restored encoded differential signal and the prediction signal to generate a reproduced moving image; A storage step for storing the reproduced moving image used as a reference image when generating a measurement signal, and an information embedding step for executing processing for embedding information to be embedded in the moving image in the moving image. In the motion detection step, a first motion vector is detected by a first motion detection method from a reference image that has been reproduced for the target area, and a motion is detected based on the reproduced moving image and the reference image. A detection method detects a second motion vector different from the first motion vector, and the information embedding step selects either the first motion vector or the second motion vector based on the information to be embedded, In the prediction signal generating step, the selected first motion vector or the second motion vector is used as the one motion vector information. Based on the single motion vector information, and generates a prediction signal for the target region.

このとき、動き検出ステップでは、前記第2動き検出方法として、前記再生動画像内にある対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較し、該比較結果に基づいて前記第2動きベクトルを検出することが望ましい。   At this time, in the motion detection step, as the second motion detection method, an adjacent region composed of reproduced pixels adjacent to the target region in the reproduced moving image is compared with the signal of the reference image, and the comparison is performed. It is desirable to detect the second motion vector based on the result.

また、動き検出ステップでは、前記第2動き検出方法として、前記第1動きベクトルで特定される予測信号による誤差値から所定の幅以上離れた誤差値の予測信号を与える前記第2動きベクトルを検出することが望ましい。   Further, in the motion detection step, as the second motion detection method, the second motion vector that gives a prediction signal having an error value separated from the error value by the prediction signal specified by the first motion vector by a predetermined width or more is detected. It is desirable to do.

本発明に係る動画像符号化プログラムは、コンピュータを、請求項3〜5の何れか一項に記載の動画像符号化装置として機能させるための動画像符号化プログラムである。   The moving image encoding program according to the present invention is a moving image encoding program for causing a computer to function as the moving image encoding apparatus according to any one of claims 3 to 5.

本発明に係る動画像復号装置は、生成された再生動画像と参照画像とから、所定の方法で、上記復号された動きベクトル情報が属する再生動画像内の対象領域に対する基準動きベクトルを検出し、動きベクトル情報と基準動きベクトルとを比較し、該比較結果に基づいて上記埋め込まれた情報を抽出する。このため、符号化側で用いられた情報埋め込み方法の規則を知る必要はなく、情報埋め込み方法に依存することなく、埋め込み情報の抽出ができる。すなわち、情報埋め込み方法を多少変更しても、復号装置で情報を抽出できるメリットがある。   The video decoding device according to the present invention detects a reference motion vector for a target region in a playback video to which the decoded motion vector information belongs from a generated playback video and a reference image by a predetermined method. Then, the motion vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result. Therefore, it is not necessary to know the rules of the information embedding method used on the encoding side, and the embedded information can be extracted without depending on the information embedding method. That is, even if the information embedding method is slightly changed, there is an advantage that information can be extracted by the decoding device.

また、前述したように、動画像復号装置からみて情報を埋め込む規則が定まっていないので、動画像符号化装置では画質を維持するための自由度が高くなる。すなわち、動画像復号装置において動きベクトルの判別さえできれば、動画像符号化装置では大局的に、より少ない誤差の動きベクトルで情報を埋め込むことができ、従来技術よりも高い画質で情報を埋め込むことが可能となる。   Further, as described above, since the rules for embedding information are not determined from the viewpoint of the moving picture decoding apparatus, the moving picture encoding apparatus has a high degree of freedom for maintaining the image quality. In other words, as long as the motion vector can be discriminated in the video decoding device, the video encoding device can embed information with a motion vector with fewer errors and embed information with higher image quality than the prior art. It becomes possible.

以下、本発明に係る実施形態について、図1〜図10を用いて説明する。   Hereinafter, embodiments according to the present invention will be described with reference to FIGS.

(符号化装置について)
図1は、埋め込み情報を処理する動画像符号化装置100のブロック図を示す。図1に示すように、動画像符号化装置100は、入力端子101、ブロック分割器102、予測信号生成器103、フレームメモリ104、引き算器105、変換器106、量子化器107、逆量子化器108、逆変換器109、加算器110、エントロピー符号化器111、出力端子112、動き検出器113、及び、動きベクトル選択器114を備えている。
(About the encoding device)
FIG. 1 shows a block diagram of a video encoding apparatus 100 that processes embedded information. As shown in FIG. 1, the moving image encoding apparatus 100 includes an input terminal 101, a block divider 102, a prediction signal generator 103, a frame memory 104, a subtractor 105, a converter 106, a quantizer 107, and an inverse quantization. , An adder 110, an entropy encoder 111, an output terminal 112, a motion detector 113, and a motion vector selector 114.

(動画像符号化装置における動作概要)
このような動画像符号化装置100について、以下、各構成部の動作を述べる。動画像を構成する複数の画像は入力端子101に入力される。入力された画像に対し、ブロック分割器102は、符号化の対象となる画像を複数の小領域(ここでは例えば16×16画素からなるブロック)に分割する。分割された各ブロックについて、以下の圧縮・符号化処理が実行される。
(Outline of operation in moving picture coding apparatus)
Hereinafter, the operation of each component of the moving picture coding apparatus 100 will be described. A plurality of images constituting the moving image are input to the input terminal 101. With respect to the input image, the block divider 102 divides the image to be encoded into a plurality of small regions (here, for example, blocks made up of 16 × 16 pixels). The following compression / encoding process is executed for each of the divided blocks.

符号化の対象となるブロック(以下「対象ブロック」という)について、動き検出器113、動きベクトル選択器114及び予測信号生成器103により、予測信号の生成処理が実行される。この予測信号の生成処理は、後に、詳述する。   A prediction signal generation process is executed by the motion detector 113, the motion vector selector 114, and the prediction signal generator 103 for a block to be encoded (hereinafter referred to as “target block”). This prediction signal generation processing will be described in detail later.

予測信号の生成処理で生成された予測信号はラインL103経由で引き算器105に送られ、引き算器105は、対象ブロックから予測信号を引き算することで差分信号を生成する。生成された差分信号は変換器106に送られ、変換器106は差分信号を周波数領域の信号に変換して量子化器107に出力する。量子化器107は量子化処理を行い、量子化後の信号をエントロピー符号化器111及び逆量子化器108に出力する。エントロピー符号化器111は、量子化後の信号を可変長符号に変換し出力端子112より出力する。なお、可変長符号の代わりに算術符号化を適用してもよい。   The prediction signal generated by the prediction signal generation process is sent to the subtractor 105 via the line L103, and the subtractor 105 generates a difference signal by subtracting the prediction signal from the target block. The generated difference signal is sent to the converter 106, which converts the difference signal into a frequency domain signal and outputs it to the quantizer 107. The quantizer 107 performs quantization processing, and outputs the quantized signal to the entropy encoder 111 and the inverse quantizer 108. The entropy encoder 111 converts the quantized signal into a variable length code and outputs it from the output terminal 112. Note that arithmetic coding may be applied instead of the variable-length code.

また、逆量子化器108は、量子化後の信号を逆量子化して逆変換器109に出力し、逆変換器109は逆変換を行う。これにより、量子化後の信号は、空間領域の復元差分信号に変換される。次に、加算器110が、復元差分信号と、ラインL103経由で送られる予測信号とを加算する。これにより、再生動画像が生成される。このようにして復元された再生動画像は、次の画像を符号化する際の参照画像として使用されるため、フレームメモリ104に格納される。   Further, the inverse quantizer 108 inversely quantizes the quantized signal and outputs it to the inverse transformer 109, and the inverse transformer 109 performs inverse transformation. Thereby, the quantized signal is converted into a restored differential signal in the spatial domain. Next, the adder 110 adds the restored differential signal and the prediction signal sent via the line L103. Thereby, a reproduction moving image is generated. The reproduced moving image restored in this way is stored in the frame memory 104 because it is used as a reference image for encoding the next image.

次に、予測信号の生成処理について述べる。動き検出器113は、対象ブロックについての予測信号(同じく16×16画素のブロック)を生成する。具体的には、対象ブロックはラインL102経由で、フレームメモリに格納されている参照画像はラインL104経由で、それぞれ動き検出器113に入力され、動き検出器113は、従来と同じ手法で、参照画像における対象ブロックの変位を検出し、対象ブロックに最も誤差の少ない予測信号を与える動きベクトルを検出する。例えば、動き検出器113は、参照画像において所定の探索範囲を決定し、この探索範囲から対象ブロックと同じ画素数の候補ブロックを取得する。次に、動き検出器113は、対象ブロックと候補ブロックとで、対応する画素間の差分値を求め、差分値の絶対値を加算して、当該候補ブロックに関する予測誤差を求める。このようにして、動き検出器113は、探索範囲内にある全ての候補ブロックの各々について予測誤差を求め、予測誤差の最も少ない候補ブロックを特定し、該候補ブロックを与える対象ブロックの変位を、最適動きベクトルとして検出する。このように予測誤差の最も少ない予測信号を用いることにより、効率よく動画像を符号化することができる。上記のようなブロックマッチングの方法によって求めた最適動きベクトルは、第1動きベクトルと呼び、場合により「MV1」と略称する。   Next, prediction signal generation processing will be described. The motion detector 113 generates a prediction signal (also a 16 × 16 pixel block) for the target block. Specifically, the target block is input to the motion detector 113 via the line L102, and the reference image stored in the frame memory is input to the motion detector 113 via the line L104. A displacement of the target block in the image is detected, and a motion vector that gives a prediction signal with the least error to the target block is detected. For example, the motion detector 113 determines a predetermined search range in the reference image, and acquires a candidate block having the same number of pixels as the target block from the search range. Next, the motion detector 113 obtains a difference value between corresponding pixels in the target block and the candidate block, adds the absolute value of the difference value, and obtains a prediction error regarding the candidate block. In this way, the motion detector 113 calculates a prediction error for each of all candidate blocks within the search range, identifies a candidate block with the smallest prediction error, and determines the displacement of the target block that gives the candidate block, It detects as an optimal motion vector. By using the prediction signal with the smallest prediction error in this way, it is possible to efficiently encode a moving image. The optimal motion vector obtained by the block matching method as described above is referred to as a first motion vector, and in some cases, abbreviated as “MV1”.

本実施形態の動画像符号化装置100は、上記の第1動きベクトルに加えて、第2動きベクトル(場合により「MV2」と略称する)も併せて求める。第2動きベクトルの求め方については、大別して2つの方法があるが、ここでは、まず第1の方法に基づく処理を説明する。   In addition to the first motion vector, the moving image coding apparatus 100 according to the present embodiment also obtains a second motion vector (sometimes abbreviated as “MV2”). There are roughly two methods for obtaining the second motion vector. Here, processing based on the first method will be described first.

第1の方法では、第1動きベクトルに対応する予測誤差値から所定の幅以上離れている予測誤差値を与える動きベクトルを、第2動きベクトルとして求める。すなわち、第2動きベクトルが与える予測誤差値をSAD(MV2)、第1動きベクトルが与える予測誤差値をSAD(MV1)、所定の幅をMとすると、以下の式(1)を満たすSAD(MV2)の中から、予測誤差値の最も小さいものに対応する動きベクトルを第2動きベクトルとして求める。
|SAD(MV2)−SAD(MV1)|>M …(1)
ここで、所定の幅Mは、復号装置においてSAD(MV2)とSAD(MV1)とを区別可能な程度の値を用いる。
In the first method, a motion vector that gives a prediction error value that is more than a predetermined width away from the prediction error value corresponding to the first motion vector is obtained as the second motion vector. That is, assuming that the prediction error value given by the second motion vector is SAD (MV2), the prediction error value given by the first motion vector is SAD (MV1), and the predetermined width is M, SAD ( The motion vector corresponding to the smallest prediction error value is obtained as the second motion vector from MV2).
| SAD (MV2) -SAD (MV1) |> M (1)
Here, the predetermined width M is a value that can distinguish SAD (MV2) and SAD (MV1) in the decoding apparatus.

なお、本実施形態では、例えば、所定の幅Mは、符号化装置において用いられる量子化幅の関数により決定される。詳細は後述するが、復号装置ではMV2を求め、求めたMV2と符号化データに含まれる動きベクトルとを比較し、該比較結果に基づいて埋め込み情報を抽出する。そのため、MV1はMV2と異なるものであれば何でもよい。例えば、復号装置において決定されるMV2に対し、MV1は、MV2の水平の成分と垂直の成分の一方又は両方を負の値にしてもよいし、動きベクトルの最小単位で増減してもよい。   In the present embodiment, for example, the predetermined width M is determined by a function of the quantization width used in the encoding device. Although details will be described later, the decoding apparatus obtains MV2, compares the obtained MV2 with a motion vector included in the encoded data, and extracts embedded information based on the comparison result. Therefore, MV1 may be anything as long as it is different from MV2. For example, with respect to MV2 determined in the decoding device, MV1 may be a negative value of one or both of the horizontal component and the vertical component of MV2, or may be increased or decreased by the minimum unit of the motion vector.

このように決定された第1の動きベクトルと第2の動きベクトルは、ラインL113経由で動きベクトル選択器114に送られる。動きベクトル選択器114には、画像に埋め込む情報の二値化されたデータがあわせて入力され、動きベクトル選択器114は、埋め込む情報の「0」もしくは「1」に応じて、MV1又はMV2を選択する。選択された動きベクトルは、ラインL114経由で予測信号生成器103に送られる。予測信号生成器103は、選択された動きベクトルをもとに、フレームメモリ104から予測信号を取得し、取得した予測信号を対象ブロックの予測信号としてラインL103経由で引き算器105に出力する。   The first motion vector and the second motion vector determined in this way are sent to the motion vector selector 114 via the line L113. The motion vector selector 114 is also input with binarized data of information to be embedded in the image, and the motion vector selector 114 sets MV1 or MV2 in accordance with “0” or “1” of the information to be embedded. select. The selected motion vector is sent to the prediction signal generator 103 via the line L114. The prediction signal generator 103 acquires a prediction signal from the frame memory 104 based on the selected motion vector, and outputs the acquired prediction signal to the subtractor 105 via the line L103 as a prediction signal of the target block.

(動画像符号化装置における情報埋め込み処理)
次に、図2と図3を用いて動画像符号化装置100により実行される情報埋め込み処理を説明する。図2において、上述したブロックマッチングの方法で、対象画像の全てのブロックについて第1動きベクトルMV1を求める(ステップ211)。次に、ステップ212では、上述した第1の方法で、対象画像の全てのブロックについて第2動きベクトルMV2を求める。MV2は、MV1との間で、水平・垂直成分の少なくとも1つが異なることが条件である。
(Information embedding process in moving picture encoding apparatus)
Next, an information embedding process executed by the moving picture encoding apparatus 100 will be described with reference to FIGS. In FIG. 2, the first motion vector MV1 is obtained for all the blocks of the target image by the block matching method described above (step 211). Next, in step 212, the second motion vector MV2 is obtained for all the blocks of the target image by the first method described above. MV2 is required to have at least one horizontal / vertical component different from that of MV1.

ステップ213以降は、各ブロックに情報を埋め込む処理になる。まずステップ213では、カウンタbnを0にセットし、次のステップ214では、埋め込む情報の二値化されたデータの1ビット(0または1)を入力する。そして、ステップ215では、入力された1ビットに基づいて、ブロックbnの予測信号を生成するための動きベクトルMVを決定する。   From step 213, information is embedded in each block. First, in step 213, the counter bn is set to 0, and in the next step 214, 1 bit (0 or 1) of the binarized data of the information to be embedded is input. In step 215, a motion vector MV for generating a prediction signal of the block bn is determined based on the input 1 bit.

ステップ215での決定方法の一実施態様は図3に示される。すなわち、図3のステップ301にて、埋め込み情報が1かどうかを判断する。埋め込み情報が1の場合は、ステップ302にてMV1を選択しMV=MV1とする。埋め込み情報が1でない場合は、MV=MV2とする(ステップ303)。そして、ステップ304では、選択された動きベクトルMVを出力する。   One embodiment of the determination method at step 215 is shown in FIG. That is, it is determined in step 301 of FIG. If the embedded information is 1, MV1 is selected at step 302 and MV = MV1. If the embedded information is not 1, MV = MV2 is set (step 303). In step 304, the selected motion vector MV is output.

図2に戻り、次のステップ216では、この動きベクトルMVを用いてブロックbnの予測信号を取得した後、取得した予測信号と対象ブロックとの差分符号化を行う。上記のステップ215、216の処理が全てのブロックについて実行されることによって、画像に情報が埋め込まれる。   Returning to FIG. 2, in the next step 216, the motion vector MV is used to acquire the prediction signal of the block bn, and then differential encoding between the acquired prediction signal and the target block is performed. Information is embedded in the image by executing the processing in steps 215 and 216 for all blocks.

なお、埋め込む情報の量によって、全てのブロックについて上記の処理を施す必要がない場合は、一部のブロックを特定した上で、該一部のブロックのみに情報を埋め込む。それ以外のブロックについては、第1動きベクトルMV1を用いて符号化すればよい。また、図2のステップ211と212をステップ213の後におき、ブロック単位で第1の動きベクトルと第2の動きベクトルとを求めながら、情報を画像に埋め込むように処理してもよい。   If it is not necessary to perform the above processing on all blocks depending on the amount of information to be embedded, information is embedded only in some of the blocks after identifying some of the blocks. Other blocks may be encoded using the first motion vector MV1. 2 may be placed after step 213, and processing may be performed so as to embed information in the image while obtaining the first motion vector and the second motion vector in units of blocks.

(第2動きベクトルMV2を求める第2の方法)
図4は、第2動きベクトルを求める第2の方法を説明するための模式図である。この図4において、対象ブロック402の第1動きベクトルは上述の従来方法で求める。第2動きベクトルは、対象ブロック402に隣接する画素群403を用いて求める。つまり、参照画像406にある探索領域409の中から、画素群403に最も類似する予測画素群を求める。
(Second method for obtaining the second motion vector MV2)
FIG. 4 is a schematic diagram for explaining a second method for obtaining the second motion vector. In FIG. 4, the first motion vector of the target block 402 is obtained by the conventional method described above. The second motion vector is obtained using the pixel group 403 adjacent to the target block 402. That is, a predicted pixel group that is most similar to the pixel group 403 is obtained from the search area 409 in the reference image 406.

具体的には、探索領域409にある候補画素群408の各々と、画素群403との誤差を求め、全ての候補画素群のうち、画素群403との誤差の最も小さい候補画素群を予測画素群とする。そして、探索領域409にある画素群403と予測画素群との間の変位を、対象ブロックの第2動きベクトルとする。なお、本実施形態では、誤差として、画素間の差分の絶対値の和を用いるが、それ以外の方法を用いてもよい。上記の画素群403は、対象ブロック402を処理する前に既に復元されたものであるため、復号装置においても、同じ画素群403を用いて、同じ第2動きベクトルを求めることができる。   Specifically, an error between each of the candidate pixel groups 408 in the search area 409 and the pixel group 403 is obtained, and among all candidate pixel groups, the candidate pixel group with the smallest error from the pixel group 403 is predicted pixel. A group. Then, the displacement between the pixel group 403 and the predicted pixel group in the search area 409 is set as the second motion vector of the target block. In this embodiment, the sum of absolute values of differences between pixels is used as the error, but other methods may be used. Since the pixel group 403 has already been restored before the target block 402 is processed, the decoding device can also obtain the same second motion vector using the same pixel group 403.

図5は、図4の第2動きベクトルの求め方に対応する動きベクトルMVの決定方法であり、図2のステップ215にて実行される。すなわち、図5のステップ501にて、埋め込み情報が1かどうかを判断する。埋め込み情報が1の場合は、ステップ502に進み、MV1とMV2が同じかどうかを判断する。ここでは、埋め込み情報が1の場合、第2動きベクトルMV2と異なる動きベクトルで符号化するものとする。そこで、ステップ502にてMV1とMV2が異なると判断された場合、ステップ503にて、符号化に用いる動きベクトルMVをMV1とする。一方、MV1とMV2が同じ場合、MV1と異なる動きベクトルを別途決定し、決定した動きベクトルを用いる必要がある。そのため、ステップ504では、前述した式1に示す方法で、MV1と異なる動きベクトルMV1’を決定し、符号化に用いる動きベクトルMVをMV1’とする。   FIG. 5 shows a method for determining the motion vector MV corresponding to the method for obtaining the second motion vector in FIG. 4, and is executed in step 215 in FIG. That is, it is determined in step 501 of FIG. If the embedded information is 1, the process proceeds to step 502, and it is determined whether MV1 and MV2 are the same. Here, when the embedding information is 1, encoding is performed with a motion vector different from the second motion vector MV2. Therefore, if it is determined in step 502 that MV1 and MV2 are different, in step 503, the motion vector MV used for encoding is set to MV1. On the other hand, when MV1 and MV2 are the same, it is necessary to separately determine a motion vector different from MV1 and use the determined motion vector. Therefore, in step 504, a motion vector MV1 'different from MV1 is determined by the method shown in Equation 1 above, and the motion vector MV used for encoding is set to MV1'.

一方、ステップ501にて埋め込み情報が0の場合はステップ505に進み、MV1とMV2が同じかどうかを判断する。ここでは、埋め込み情報が0の場合、第2動きベクトルMV2と同じ動きベクトルで符号化するものとする。そこで、ステップ505にてMV1とMV2が同じと判断された場合、ステップ506に進み、符号化に用いる動きベクトルをMV1とする。一方、MV1とMV2が異なる場合は、ステップ507に進み、MV1の代わりにMV2を符号化に用いられる動きベクトルとする。上記のステップ504、503、506、507で設定された動きベクトルMVは、ステップ508で出力される。   On the other hand, if the embedded information is 0 in step 501, the process proceeds to step 505, where it is determined whether MV1 and MV2 are the same. Here, when the embedded information is 0, encoding is performed with the same motion vector as the second motion vector MV2. Therefore, if it is determined in step 505 that MV1 and MV2 are the same, the process proceeds to step 506, and the motion vector used for encoding is set to MV1. On the other hand, if MV1 and MV2 are different, the process proceeds to step 507, and MV2 is used as the motion vector used for encoding instead of MV1. The motion vector MV set in the above steps 504, 503, 506, and 507 is output in step 508.

以上の図5の処理によれば、復号側でビットストリームに含まれている動きベクトルMVが、復号装置にて求めるMV2と同じと判断された場合は、埋め込み情報が0であり、動きベクトルMVが復号装置にて求めるMV2と異なると判断された場合は、埋め込み情報が1である、と一意的に決定することができる。   According to the processing in FIG. 5 described above, when the decoding side determines that the motion vector MV included in the bitstream is the same as MV2 obtained by the decoding device, the embedded information is 0, and the motion vector MV Is determined to be different from MV2 obtained by the decoding device, it can be uniquely determined that the embedded information is 1.

以上のように、情報を埋め込むデータを所定の規則に従い動きベクトルを変化させるのではなくて、予測誤差の小さい順で情報を埋め込むために、大局的に高画質の符号化データを生成することができる。   As described above, rather than changing the motion vector of data in which information is embedded according to a predetermined rule, it is possible to generate encoded data with high image quality on a global basis in order to embed information in the order of small prediction error. it can.

なお、上述した方法は、1つの対象ブロックに1ビットを埋め込む実施方法について説明したが、1ブロック当りに2ビットのデータを埋め込んでもよい。第2動きベクトルMV2は、復号装置において求めることができるので、予測誤差が最も小さいもの、2番目に小さいもの、または3番目に小さいものに対応する動きベクトルをMV2とすることで、1ブロック当りに2ビットのデータを埋め込むことができる。例えば、符号化に用いられる動きベクトルがMV2と異なる場合に「00」を割り当て、符号化に用いられる動きベクトルがMV2と同じ場合には、さらにそのMV2による予測誤差の最小のものに「01」、2番目に小さいものに「10」、3番目に小さいものに「11」を割り当てればよい。3ビット以上の場合も同じように拡張すればよい。   In the above-described method, the method of embedding 1 bit in one target block has been described. However, 2-bit data may be embedded in one block. Since the second motion vector MV2 can be obtained by the decoding apparatus, the motion vector corresponding to the smallest prediction error, the second smallest, or the third smallest motion vector is defined as MV2. Can be embedded with 2-bit data. For example, when the motion vector used for encoding is different from MV2, “00” is assigned. When the motion vector used for encoding is the same as MV2, “01” is set as the smallest prediction error due to MV2. It is only necessary to assign “10” to the second smallest and “11” to the third smallest. In the case of 3 bits or more, it may be expanded in the same way.

(復号装置について)
図6は本発明による埋め込み情報を処理する動画像復号装置600のブロック図を示す。図6に示すように、動画像復号装置600は、入力端子601、データ解析器602、逆量子化器603、逆変換器604、加算器605、画像出力端子606、フレームメモリ607、予測信号生成器608、動き検出器609、情報抽出器610、及び、情報出力端子611を備えている。
(Decoding device)
FIG. 6 is a block diagram of a moving picture decoding apparatus 600 for processing embedded information according to the present invention. As shown in FIG. 6, the moving picture decoding apparatus 600 includes an input terminal 601, a data analyzer 602, an inverse quantizer 603, an inverse transformer 604, an adder 605, an image output terminal 606, a frame memory 607, and a prediction signal generation. 608, a motion detector 609, an information extractor 610, and an information output terminal 611.

なお、以下の動画像復号装置に関する説明において、「第1動きベクトル」は、請求項1に記載した「動きベクトル情報」に相当し、「第2動きベクトル」は、請求項1に記載した「基準動きベクトル」に相当する。   In the following description of the video decoding device, the “first motion vector” corresponds to the “motion vector information” described in claim 1, and the “second motion vector” is described in claim 1. It corresponds to “reference motion vector”.

(動画像復号装置における動作概要)
このような動画像復号装置600について、以下、各構成部の動作を述べる。入力端子601には、動画像を複数の対象領域に分割し、対象ブロックについて復元済の参照画像より予測ブロック及び該予測ブロックの位置を示す第1動きベクトルを決定し、予測ブロックと対象ブロックとの差分信号及び第1動きベクトルを符号化して得られたデータを含むビットストリームが入力される。本実施形態では、図1の動画像符号化装置100で処理して得られたビットストリームが動画像復号装置600に入力される。
(Outline of operation in video decoding device)
Hereinafter, the operation of each component of the moving picture decoding apparatus 600 will be described. The input terminal 601 divides the moving image into a plurality of target regions, determines a prediction block and a first motion vector indicating the position of the prediction block from the restored reference image for the target block, A bit stream including data obtained by encoding the difference signal and the first motion vector is input. In the present embodiment, a bit stream obtained by processing by the video encoding device 100 in FIG. 1 is input to the video decoding device 600.

データ解析器602は、入力データ(入力されたビットストリーム)を解析し差分信号及び第1動きベクトルを復号する。ここでは可変長復号を用いるが、算術復号を用いてもよい。復号された差分信号は逆量子化器603により逆量子化され、逆量子化後の差分信号は逆変換器604により逆変換され、空間領域の復元差分信号となる。一方、データ解析器602にて復号された第1動きベクトルはラインL602b経由で予測信号生成器608に送られる。   The data analyzer 602 analyzes input data (input bit stream) and decodes the differential signal and the first motion vector. Although variable length decoding is used here, arithmetic decoding may be used. The decoded difference signal is inversely quantized by the inverse quantizer 603, and the difference signal after inverse quantization is inversely transformed by the inverse transformer 604 to be a restored differential signal in the spatial domain. On the other hand, the first motion vector decoded by the data analyzer 602 is sent to the prediction signal generator 608 via the line L602b.

予測信号生成器608は、フレームメモリ607に格納された参照画像より第1動きベクトルによって特定される予測信号を取得し、該予測信号はラインL608経由で加算器605に送られる。加算器605は、予測信号と復元差分信号とを加算することで、再生動画像を生成する。生成された再生動画像は画像出力端子606経由で外部の表示装置に伝送されるとともに、フレームメモリ607に送られ格納される。   The prediction signal generator 608 obtains a prediction signal specified by the first motion vector from the reference image stored in the frame memory 607, and the prediction signal is sent to the adder 605 via the line L608. The adder 605 generates a playback moving image by adding the prediction signal and the restored difference signal. The generated playback moving image is transmitted to an external display device via the image output terminal 606 and is also sent to the frame memory 607 for storage.

一方、動き検出器609は、フレームメモリ607から、生成された再生動画像内の対象ブロックの信号と参照画像の信号とを入力し、ブロックマッチングの方法により、上記復号された第1動きベクトルが属する再生動画像内の対象ブロックに対する第2動きベクトルを検出する。そして、第1動きベクトルはラインL602b経由で、第2動きベクトルはラインL610経由で、それぞれ、情報抽出器610に送られる。情報抽出器610は、第1動きベクトルと第2動きベクトルとを比較し、比較結果に基づいて、動画像に埋め込まれた情報(埋め込み情報)を抽出する(判断する)。具体的には、情報抽出器610は、第1動きベクトルと第2動きベクトルが同じ場合、埋め込み情報が「0」であると判断し、第1動きベクトルと第2動きベクトルが異なる場合、埋め込み情報が「1」であると判断する。これは図3に対応した結果になるが、「0」と「1」を逆に割り当ててもよい。   On the other hand, the motion detector 609 receives the signal of the target block and the signal of the reference image in the generated playback moving image from the frame memory 607, and the decoded first motion vector is obtained by a block matching method. A second motion vector for the target block in the reproduced moving image to which it belongs is detected. The first motion vector is sent to the information extractor 610 via the line L602b, and the second motion vector is sent to the information extractor 610 via the line L610. The information extractor 610 compares the first motion vector and the second motion vector, and extracts (determines) information embedded in the moving image (embedded information) based on the comparison result. Specifically, if the first motion vector and the second motion vector are the same, the information extractor 610 determines that the embedding information is “0”, and if the first motion vector and the second motion vector are different, It is determined that the information is “1”. This results in a result corresponding to FIG. 3, but “0” and “1” may be assigned in reverse.

また、動き検出器609は、上述した第1の方法のほかに、フレームメモリ607から、対象ブロックに隣接する再生済の画素からなる隣接ブロックの信号と参照画像の信号とを入力し、図4にて説明された方法で第2動きベクトルを検出してもよい。即ち、動き検出器609は、図4の対象ブロック402に隣接する画素群403を対象として、画素群403と、参照画像406内の探索領域409にある候補画素群408との誤差を求め、探索領域409にある全ての候補画素群408の中から、画素群403との誤差が最も小さい候補画素群を予測画素群とする。そして、動き検出器609は、画素群403と予測画素群との間の変位を、対象ブロックの第2動きベクトルとする。情報抽出器610は、このように得られた第2動きベクトルと第1動きベクトルとを比較し、比較結果に基づいて、動画像に埋め込まれた情報(埋め込み情報)を抽出する(判断する)。例えば、情報抽出器610は、第1動きベクトルと第2動きベクトルが同じ場合、埋め込み情報が「0」であると判断し、第1動きベクトルと第2動きベクトルが異なる場合、埋め込み情報が「1」であると判断する。   In addition to the first method described above, the motion detector 609 receives, from the frame memory 607, an adjacent block signal composed of reconstructed pixels adjacent to the target block and a reference image signal. The second motion vector may be detected by the method described in. That is, the motion detector 609 obtains an error between the pixel group 403 and the candidate pixel group 408 in the search area 409 in the reference image 406 for the pixel group 403 adjacent to the target block 402 in FIG. Among all candidate pixel groups 408 in the region 409, a candidate pixel group having the smallest error from the pixel group 403 is set as a predicted pixel group. Then, the motion detector 609 sets the displacement between the pixel group 403 and the predicted pixel group as the second motion vector of the target block. The information extractor 610 compares the second motion vector thus obtained with the first motion vector, and extracts (determines) information (embedded information) embedded in the moving image based on the comparison result. . For example, when the first motion vector and the second motion vector are the same, the information extractor 610 determines that the embedded information is “0”. When the first motion vector and the second motion vector are different, the embedded information is “ 1 ”.

図7には、動画像復号装置600により実行される、埋め込み情報を処理する動画像復号処理の流れ図を示す。図7のステップ701では、圧縮符号化されたデータが入力される。次に、データ解析器602は、入力されたデータをエントロピー復号し、量子化変換係数、量子化情報、及び第1動きベクトルを含んだ情報を抽出する(ステップ702)。予測信号生成器608は、抽出された第1動きベクトルに基づき予測信号を生成する(ステップ703)。逆量子化器603は、抽出された量子化変換係数に対し、量子化情報を用いて逆量子化する(ステップ704)。逆変換器604は、その結果を逆変換することで再生差分信号を生成する(ステップ705)。そして、加算器605は、予測信号と再生差分信号を加算することで再生信号を生成する(ステップ706)。生成された再生動画像はフレームメモリ607に出力され一時格納される(ステップ707)。上記のステップ701〜707の処理は全てのデータについて実行され、これにより画像が復元される。   FIG. 7 shows a flowchart of a moving picture decoding process for processing embedded information, which is executed by the moving picture decoding apparatus 600. In step 701 in FIG. 7, compression-encoded data is input. Next, the data analyzer 602 performs entropy decoding on the input data, and extracts information including the quantized transform coefficient, the quantized information, and the first motion vector (step 702). The prediction signal generator 608 generates a prediction signal based on the extracted first motion vector (step 703). The inverse quantizer 603 inversely quantizes the extracted quantized transform coefficient using the quantization information (step 704). The inverse transformer 604 generates a reproduction difference signal by inversely transforming the result (step 705). Then, the adder 605 generates a reproduction signal by adding the prediction signal and the reproduction difference signal (step 706). The generated reproduction moving image is output to the frame memory 607 and temporarily stored (step 707). The processes in steps 701 to 707 are executed for all the data, thereby restoring the image.

図8には、動画像復号装置600の動き検出器609及び情報抽出器610により実行される情報抽出処理の流れ図を示す。図8のステップ801では、ビットストリームに含まれ復号された第1動きベクトルが情報抽出器610に入力され、該第1動きベクトルに対応する再生動画像のブロック信号と参照画像信号とがフレームメモリ607から動き検出器609に入力される。次に、ステップ802にて動き検出器609は、再生動画像のブロック信号と参照画像信号より、第2の動きベクトルを検出する。ここでの第2動きベクトルの検出処理は、上述したように、再生された対象ブロック又は該対象ブロックに隣接する画素群を用いて行われる。   FIG. 8 shows a flowchart of information extraction processing executed by the motion detector 609 and the information extractor 610 of the video decoding device 600. In step 801 of FIG. 8, the first motion vector included in the bit stream and decoded is input to the information extractor 610, and the block signal and reference image signal of the playback moving image corresponding to the first motion vector are stored in the frame memory. 607 to the motion detector 609. Next, in step 802, the motion detector 609 detects a second motion vector from the block signal of the reproduced moving image and the reference image signal. As described above, the second motion vector detection process is performed using the reproduced target block or a pixel group adjacent to the target block.

ステップ803では、情報抽出器610は、入力された第1動きベクトルと、動き検出器609により検出された第2動きベクトルとを比較する。ここで、情報抽出器610は、第1動きベクトルと第2動きベクトルが同じ場合、埋め込み情報が「0」であると判断し(ステップ804)、第1動きベクトルと第2動きベクトルが異なる場合、埋め込み情報が「1」であると判断する(ステップ805)。以後、ステップ801〜805の処理は全ての対象ブロックについて実行され、全ての対象ブロックについて実行完了すると、情報抽出器610は、抽出した埋め込み情報を情報出力端子611から外部へ出力する(ステップ807)。   In step 803, the information extractor 610 compares the input first motion vector with the second motion vector detected by the motion detector 609. Here, if the first motion vector and the second motion vector are the same, the information extractor 610 determines that the embedded information is “0” (step 804), and the first motion vector and the second motion vector are different. The embedded information is determined to be “1” (step 805). Thereafter, the processing in steps 801 to 805 is executed for all target blocks, and when the execution is completed for all target blocks, the information extractor 610 outputs the extracted embedded information to the outside from the information output terminal 611 (step 807). .

なお、一部のブロックだけに情報を埋め込んだ場合は、該当の一部のブロックのみについて埋め込み情報の抽出を行なえばよい。   When information is embedded only in a part of the blocks, the embedded information may be extracted only for the part of the corresponding block.

また、上述した実施形態では、1つの対象ブロックに1ビットを埋め込む場合について説明したが、1ブロック当りに2ビットのデータを埋め込んだ場合でも同じ処理を行う。動き検出器609にて検出された第2動きベクトルについて、それが予測誤差の最も小さいものに対応するか、または2番目に小さいもの対応するか、または3番目に小さいものに対応するかによって、埋め込まれた情報を区別する。例えば、第1動きベクトルが第2動きベクトルと異なる場合に「00」、第1動きベクトルが第2動きベクトルと同じ場合には、さらにその第2動きベクトルによる予測誤差の最小のものに「01」、2番目に小さいものに「10」、3番目に小さいものに「11」として情報を抽出する。なお、3ビット以上の場合も同じように拡張すればよい。このように、情報を埋め込むデータを所定の規則に従って動きベクトルを変化させるのではなく、予測誤差の小さい順で情報を埋め込み、抽出するために、大局的に高画質の符号化データを生成することができる。また、再生動画像から、第2動きベクトルを求め、求めた第2動きベクトルに基づいて埋め込み情報を抽出することから、符号化側に用いられる情報埋め込み方法の規則を知る必要はなく、情報埋め込み方法に依存しないで情報の抽出ができる。すなわち、情報埋め込み方法を多少変更しても同じ復号装置で情報を抽出できるメリットがある。   In the above-described embodiment, the case where 1 bit is embedded in one target block has been described, but the same processing is performed even when 2 bits of data are embedded per block. Depending on whether the second motion vector detected by the motion detector 609 corresponds to the smallest prediction error, the second smallest, or the third smallest, Distinguish embedded information. For example, when the first motion vector is different from the second motion vector, “00”, and when the first motion vector is the same as the second motion vector, “01” is set to the smallest prediction error due to the second motion vector. The information is extracted as “10” for the second smallest and “11” for the third smallest. In the case of 3 bits or more, it may be expanded in the same way. Thus, in order to embed and extract information in ascending order of prediction error, instead of changing the motion vector according to a predetermined rule, the data to embed information is generated with high quality encoded data on a global basis. Can do. Further, since the second motion vector is obtained from the reproduced moving image and the embedded information is extracted based on the obtained second motion vector, it is not necessary to know the rules of the information embedding method used on the encoding side, and the information embedding is performed. Information can be extracted without depending on the method. That is, there is an advantage that information can be extracted by the same decoding device even if the information embedding method is slightly changed.

(動画像符号化プログラム・動画像復号プログラムと動作環境)
ところで、動画像符号化装置に係る発明は、コンピュータを動画像符号化装置として機能させるための動画像符号化プログラムに係る発明として捉えることができる。また、動画像復号装置に係る発明は、コンピュータを動画像復号装置として機能させるための動画像復号プログラムに係る発明として捉えることができる。動画像符号化プログラム及び動画像復号プログラムは、例えば、記録媒体に格納されて提供される。記録媒体としては、フレキシブルディスク、CD−ROM、DVD等の記録媒体や、半導体メモリ等が例示される。
(Video coding program / video decoding program and operating environment)
By the way, the invention relating to the moving picture coding apparatus can be regarded as an invention relating to a moving picture coding program for causing a computer to function as a moving picture coding apparatus. Further, the invention relating to the moving picture decoding apparatus can be regarded as an invention relating to a moving picture decoding program for causing a computer to function as a moving picture decoding apparatus. The moving image encoding program and the moving image decoding program are provided by being stored in a recording medium, for example. Examples of the recording medium include a recording medium such as a flexible disk, a CD-ROM, and a DVD, a semiconductor memory, and the like.

図9は、記録媒体10に記録されたプログラムを実行するためのコンピュータ30のハードウェア構成を示す図であり、図10は、記録媒体10に記録されたプログラムを実行するためのコンピュータ30の斜視図である。ここでのコンピュータ30としては、CPUを具備しソフトウエアによる処理や制御を行うDVDプレーヤ、セットトップボックス、携帯電話などを含む。   FIG. 9 is a diagram illustrating a hardware configuration of the computer 30 for executing the program recorded on the recording medium 10. FIG. 10 is a perspective view of the computer 30 for executing the program recorded on the recording medium 10. FIG. Here, the computer 30 includes a DVD player, a set top box, a mobile phone, and the like that have a CPU and perform processing and control by software.

図9に示すように、コンピュータ30は、フロッピーディスクドライブ装置、CD−ROMドライブ装置、DVDドライブ装置等の読み取り装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイ18と、入力装置であるマウス20及びキーボード22と、データ等の送受信を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読み取り装置12に挿入されると、読み取り装置12から記録媒体10に格納された動画像符号化プログラム及び動画像復号プログラムにアクセス可能になり、当該動画像符号化プログラム及び動画像復号プログラムによって、コンピュータ30は、本発明に係る動画像符号化装置及び動画像復号装置として動作することが可能になる。   As shown in FIG. 9, a computer 30 includes a reading device 12 such as a floppy disk drive device, a CD-ROM drive device, a DVD drive device, a working memory (RAM) 14 in which an operating system is resident, and a recording medium 10. A memory 16 for storing the program stored therein, a display 18, a mouse 20 and a keyboard 22 as input devices, a communication device 24 for transmitting and receiving data and the like, and a CPU 26 for controlling execution of the program. ing. When the recording medium 10 is inserted into the reading device 12, the computer 30 can access the moving image encoding program and the moving image decoding program stored in the recording medium 10 from the reading device 12, and the moving image encoding program And the moving picture decoding program enables the computer 30 to operate as a moving picture encoding apparatus and a moving picture decoding apparatus according to the present invention.

図10に示すように、動画像符号化プログラム及び動画像復号プログラムは、搬送波に重畳されたコンピュータデータ信号40として、有線ネットワーク・無線ネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した動画像符号化プログラム及び動画像復号プログラムをメモリ16に格納し、当該動画像符号化プログラム及び動画像復号プログラムを実行することができる。   As shown in FIG. 10, the moving picture encoding program and the moving picture decoding program may be provided as a computer data signal 40 superimposed on a carrier wave via a wired network / wireless network. In this case, the computer 30 can store the moving image encoding program and the moving image decoding program received by the communication device 24 in the memory 16 and execute the moving image encoding program and the moving image decoding program.

以上説明した本実施形態によれば、符号化側に用いられる情報埋め込み方法の規則に依存しないで、情報埋め込み方法を多少変更しても既存の復号装置で情報の抽出ができるメリットがある。また、復号装置で動きベクトルの判別がさえできれば、符号化装置で大局的により少ない誤差の動きベクトルで情報を埋め込むことができ、従来技術より高い画質で情報を埋め込むことが可能となる。   According to the present embodiment described above, there is an advantage that information can be extracted with an existing decoding device even if the information embedding method is slightly changed without depending on the rules of the information embedding method used on the encoding side. As long as the motion vector can be discriminated by the decoding device, the information can be embedded with a motion vector with a smaller overall error in the encoding device, and the information can be embedded with higher image quality than the prior art.

埋め込み情報を処理する動画像符号化装置のブロック図である。It is a block diagram of the moving image encoder which processes embedding information. 動画像符号化装置における情報埋め込み処理を示す流れ図である。It is a flowchart which shows the information embedding process in a moving image encoder. ステップ215の処理に関する第1の方法を示す流れ図である。3 is a flowchart showing a first method relating to the processing of step 215; ステップ212の処理に関する第2の方法を説明するための模式図である。FIG. 10 is a schematic diagram for explaining a second method relating to the processing in step 212; ステップ215の処理に関する第2の方法を示す流れ図である。12 is a flowchart showing a second method relating to the processing in step 215. 埋め込み情報を処理する動画像復号装置を示すブロック図である。It is a block diagram which shows the moving image decoding apparatus which processes embedding information. 埋め込み情報を処理する動画像復号処理を示す流れ図である。It is a flowchart which shows the moving image decoding process which processes embedding information. 情報抽出処理を示す流れ図である。It is a flowchart which shows an information extraction process. 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer for performing the program recorded on the recording medium. 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。It is a perspective view of a computer for executing a program stored in a recording medium.

符号の説明Explanation of symbols

10…記録媒体、12…読み取り装置、14…作業用メモリ、16…メモリ、18…ディスプレイ、20…マウス、22…キーボード、24…通信装置、30…コンピュータ、40…コンピュータデータ信号、100…動画像符号化装置、101…入力端子、102…ブロック分割器、103…予測信号生成器、104…フレームメモリ、105…引き算器、106…変換器、107…量子化器、108…逆量子化器、109…逆変換器、110…加算器、111…エントロピー符号化器、112…出力端子、113…動き検出器、114…動きベクトル選択器、402…対象ブロック、403…隣接する画素群、406…参照画像、408…候補画素群、409…探索領域、600…動画像復号装置、601…入力端子、602…データ解析器、603…逆量子化器、604…逆変換器、605…加算器、606…画像出力端子、607…フレームメモリ、608…予測信号生成器、609…動き検出器、610…情報抽出器、611…情報出力端子。   DESCRIPTION OF SYMBOLS 10 ... Recording medium, 12 ... Reading apparatus, 14 ... Working memory, 16 ... Memory, 18 ... Display, 20 ... Mouse, 22 ... Keyboard, 24 ... Communication apparatus, 30 ... Computer, 40 ... Computer data signal, 100 ... Movie Image coding apparatus 101 ... Input terminal 102 ... Block divider 103 ... Predicted signal generator 104 ... Frame memory 105 ... Subtractor 106 ... Transformer 107 ... Quantizer 108 ... Inverse quantizer , 109: inverse converter, 110: adder, 111: entropy encoder, 112: output terminal, 113: motion detector, 114: motion vector selector, 402: target block, 403: adjacent pixel group, 406 Reference image, 408 ... Candidate pixel group, 409 ... Search area, 600 ... Moving picture decoding device, 601 ... Input terminal, 602 ... Data solution 603 ... inverse quantizer, 604 ... inverse transformer, 605 ... adder, 606 ... image output terminal, 607 ... frame memory, 608 ... prediction signal generator, 609 ... motion detector, 610 ... information extractor, 611: Information output terminal.

Claims (12)

動画像を複数の対象領域に分割し、前記対象領域について復元済の参照画像より予測領域及び前記予測領域の位置を示す動きベクトル情報を決定し、前記予測領域と前記対象領域との差分信号及び前記動きベクトル情報を符号化してなるデータ、を含むビットストリームを入力する入力手段と、
入力された前記ビットストリームより、前記差分信号及び前記動きベクトル情報を復号し、前記参照画像より前記動きベクトル情報によって特定される予測領域の信号と前記差分信号とから前記動画像を復元することで、再生動画像を生成する画像復号手段と、
前記生成された再生動画像と前記参照画像とから、所定の方法で、前記復号された動きベクトル情報が属する前記再生動画像内の対象領域に対する基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて、前記動画像に埋め込まれた情報を抽出する情報抽出手段と、
を具備することを特徴とする動画像復号装置。
A moving image is divided into a plurality of target regions, a motion vector information indicating a prediction region and a position of the prediction region is determined from a restored reference image for the target region, a difference signal between the prediction region and the target region, and Input means for inputting a bitstream including data obtained by encoding the motion vector information;
By decoding the difference signal and the motion vector information from the input bitstream, and restoring the moving image from the prediction region signal specified by the motion vector information and the difference signal from the reference image. Image decoding means for generating a playback moving image;
A reference motion vector for a target region in the playback video to which the decoded motion vector information belongs is detected from the generated playback video and the reference image by a predetermined method, and the motion vector information and the reference video An information extracting unit that compares a reference motion vector and extracts information embedded in the moving image based on the comparison result;
A moving picture decoding apparatus comprising:
前記情報抽出手段は、前記動きベクトル情報が属する前記再生動画像内の対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較することにより前記基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて前記埋め込まれた情報を抽出することを特徴とする請求項1記載の動画像復号装置。   The information extraction unit detects the reference motion vector by comparing an adjacent area including reproduced pixels adjacent to a target area in the reproduction moving image to which the motion vector information belongs and a signal of the reference image. The moving picture decoding apparatus according to claim 1, wherein the motion vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result. 動画像を構成する複数の画像のうち、符号化の対象となる対象画像を入力する入力手段と、
前記対象画像を複数の対象領域に分割し、前記対象領域について再生済の参照画像より予測信号を特定するための複数の動きベクトル情報を検出する動き検出手段と、
前記複数の動きベクトル情報のうち1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する予測信号生成手段と、
前記対象領域と前記予測信号との差分を符号化し、符号化差分信号を生成する符号化手段と、
前記符号化差分信号を復元し、復元した符号化差分信号と前記予測信号とを加算することで、再生動画像を生成する再生手段と、
予測信号を生成する際の参照画像として用いられる前記再生動画像を格納する格納手段と、
前記動画像に埋め込むべき情報を前記動画像に埋め込むための処理を実行する情報埋め込み手段と、を具備し、
前記動き検出手段は、前記対象領域について再生済の参照画像より第1動き検出方法で第1動きベクトルを検出し、前記再生動画像と前記参照画像とに基づいて動きを検出する第2動き検出方法で、前記第1動きベクトルと異なる第2動きベクトルを検出し、
前記情報埋め込み手段は、前記埋め込むべき情報に基づいて前記第1動きベクトルと前記第2動きベクトルのいずれかを選択し、
前記予測信号生成手段は、選択された前記第1動きベクトル又は前記第2動きベクトルを前記1つの動きベクトル情報とし、該1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する
ことを特徴とする動画像符号化装置。
Among a plurality of images constituting a moving image, an input means for inputting a target image to be encoded;
A motion detection unit that divides the target image into a plurality of target regions and detects a plurality of pieces of motion vector information for specifying a prediction signal from a reference image reproduced for the target region;
Prediction signal generating means for generating a prediction signal for the target region based on one motion vector information among the plurality of motion vector information;
Encoding means for encoding a difference between the target region and the prediction signal and generating an encoded difference signal;
Reproducing means for reconstructing the encoded differential signal and adding the reconstructed encoded differential signal and the prediction signal to generate a reproduced moving image;
Storage means for storing the reproduced moving image used as a reference image when generating a prediction signal;
Information embedding means for executing processing for embedding information to be embedded in the moving image in the moving image,
The motion detection means detects a first motion vector by a first motion detection method from a reproduced reference image for the target area, and detects a motion based on the reproduced moving image and the reference image. Detecting a second motion vector different from the first motion vector,
The information embedding means selects either the first motion vector or the second motion vector based on the information to be embedded,
The prediction signal generation means uses the selected first motion vector or the second motion vector as the one motion vector information, and generates a prediction signal for the target region based on the one motion vector information. A moving picture coding apparatus characterized by that.
前記動き検出手段は、前記第2動き検出方法として、前記再生動画像内にある対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較し、該比較結果に基づいて前記第2動きベクトルを検出することを特徴とする請求項3記載の動画像符号化装置。   The motion detection means, as the second motion detection method, compares an adjacent region composed of reproduced pixels adjacent to a target region in the reproduced moving image with a signal of the reference image, and determines the comparison result. 4. The moving image encoding apparatus according to claim 3, wherein the second motion vector is detected based on the second motion vector. 前記動き検出手段は、前記第2動き検出方法として、前記第1動きベクトルで特定される予測信号による誤差値から所定の幅以上離れた誤差値の予測信号を与える前記第2動きベクトルを検出することを特徴とする請求項3記載の動画像符号化装置。   As the second motion detection method, the motion detection means detects the second motion vector that gives a prediction signal having an error value that is more than a predetermined width away from an error value of the prediction signal specified by the first motion vector. The moving picture coding apparatus according to claim 3. 動画像復号装置により実行される動画像復号方法であって、
動画像を複数の対象領域に分割し、前記対象領域について復元済の参照画像より予測領域及び前記予測領域の位置を示す動きベクトル情報を決定し、前記予測領域と前記対象領域との差分信号及び前記動きベクトル情報を符号化してなるデータ、を含むビットストリームを入力する入力ステップと、
入力された前記ビットストリームより、前記差分信号及び前記動きベクトル情報を復号し、前記参照画像より前記動きベクトル情報によって特定される予測領域の信号と前記差分信号とから前記動画像を復元することで、再生動画像を生成する画像復号ステップと、
前記生成された再生動画像と前記参照画像とから、所定の方法で、前記復号された動きベクトル情報が属する前記再生動画像内の対象領域に対する基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて、前記動画像に埋め込まれた情報を抽出する情報抽出ステップと、
を具備することを特徴とする動画像復号方法。
A moving picture decoding method executed by a moving picture decoding apparatus,
A moving image is divided into a plurality of target regions, a motion vector information indicating a prediction region and a position of the prediction region is determined from a restored reference image for the target region, a difference signal between the prediction region and the target region, and An input step of inputting a bitstream including data obtained by encoding the motion vector information;
By decoding the difference signal and the motion vector information from the input bitstream, and restoring the moving image from the prediction region signal specified by the motion vector information and the difference signal from the reference image. An image decoding step for generating a playback moving image;
A reference motion vector for a target region in the playback moving image to which the decoded motion vector information belongs is detected from the generated playback moving image and the reference image by a predetermined method, and the motion vector information and the reference image are detected. An information extraction step of comparing a reference motion vector and extracting information embedded in the moving image based on the comparison result;
A moving picture decoding method comprising:
前記情報抽出ステップでは、前記動きベクトル情報が属する前記再生動画像内の対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較することにより前記基準動きベクトルを検出し、前記動きベクトル情報と前記基準動きベクトルとを比較し、該比較結果に基づいて前記埋め込まれた情報を抽出することを特徴とする請求項6記載の動画像復号方法。   In the information extraction step, the reference motion vector is detected by comparing the reference image signal with an adjacent region composed of reproduced pixels adjacent to the target region in the reproduced moving image to which the motion vector information belongs. 7. The moving picture decoding method according to claim 6, wherein the motion vector information is compared with the reference motion vector, and the embedded information is extracted based on the comparison result. 動画像符号化装置により実行される動画像符号化方法であって、
動画像を構成する複数の画像のうち、符号化の対象となる対象画像を入力する入力ステップと、
前記対象画像を複数の対象領域に分割し、前記対象領域について再生済の参照画像より予測信号を特定するための複数の動きベクトル情報を検出する動き検出ステップと、
前記複数の動きベクトル情報のうち1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する予測信号生成ステップと、
前記対象領域と前記予測信号との差分を符号化し、符号化差分信号を生成する符号化ステップと、
前記符号化差分信号を復元し、復元した符号化差分信号と前記予測信号とを加算することで、再生動画像を生成する再生ステップと、
予測信号を生成する際の参照画像として用いられる前記再生動画像を格納する格納ステップと、
前記動画像に埋め込むべき情報を前記動画像に埋め込むための処理を実行する情報埋め込みステップと、を具備し、
前記動き検出ステップでは、前記対象領域について再生済の参照画像より第1動き検出方法で第1動きベクトルを検出し、前記再生動画像と前記参照画像とに基づいて動きを検出する第2動き検出方法で、前記第1動きベクトルと異なる第2動きベクトルを検出し、
前記情報埋め込みステップでは、前記埋め込むべき情報に基づいて前記第1動きベクトルと前記第2動きベクトルのいずれかを選択し、
前記予測信号生成ステップでは、選択された前記第1動きベクトル又は前記第2動きベクトルを前記1つの動きベクトル情報とし、該1つの動きベクトル情報をもとに、前記対象領域についての予測信号を生成する
ことを特徴とする動画像符号化方法。
A video encoding method executed by a video encoding device,
An input step of inputting a target image to be encoded among a plurality of images constituting the moving image;
A motion detection step of dividing the target image into a plurality of target regions, and detecting a plurality of motion vector information for specifying a prediction signal from a reference image reproduced for the target region;
A prediction signal generating step for generating a prediction signal for the target region based on one motion vector information among the plurality of motion vector information;
An encoding step of encoding a difference between the target region and the prediction signal and generating an encoded difference signal;
Regenerating the encoded differential signal, and adding the reconstructed encoded differential signal and the prediction signal to generate a reproduction moving image; and
A storing step of storing the reproduced moving image used as a reference image when generating a prediction signal;
An information embedding step for executing processing for embedding information to be embedded in the moving image in the moving image,
In the motion detection step, a second motion detection is performed in which a first motion vector is detected from a reference image that has been reproduced for the target region by a first motion detection method, and motion is detected based on the reproduced moving image and the reference image. Detecting a second motion vector different from the first motion vector,
In the information embedding step, either the first motion vector or the second motion vector is selected based on the information to be embedded,
In the prediction signal generation step, the selected first motion vector or the second motion vector is used as the one motion vector information, and a prediction signal for the target region is generated based on the one motion vector information. A moving image encoding method characterized by:
前記動き検出ステップでは、前記第2動き検出方法として、前記再生動画像内にある対象領域に隣接する再生済の画素からなる隣接領域と、前記参照画像の信号とを比較し、該比較結果に基づいて前記第2動きベクトルを検出することを特徴とする請求項8記載の動画像符号化方法。   In the motion detection step, as the second motion detection method, an adjacent region composed of reproduced pixels adjacent to a target region in the playback moving image is compared with a signal of the reference image, and the comparison result is obtained. 9. The moving image encoding method according to claim 8, wherein the second motion vector is detected based on the second motion vector. 前記動き検出ステップでは、前記第2動き検出方法として、前記第1動きベクトルで特定される予測信号による誤差値から所定の幅以上離れた誤差値の予測信号を与える前記第2動きベクトルを検出することを特徴とする請求項8記載の動画像符号化方法。   In the motion detection step, as the second motion detection method, the second motion vector that provides a prediction signal having an error value separated by a predetermined width or more from an error value of the prediction signal specified by the first motion vector is detected. 9. The moving picture encoding method according to claim 8, wherein: コンピュータを、請求項1又は2に記載の動画像復号装置として機能させるための動画像復号プログラム。   A moving picture decoding program for causing a computer to function as the moving picture decoding apparatus according to claim 1. コンピュータを、請求項3〜5の何れか一項に記載の動画像符号化装置として機能させるための動画像符号化プログラム。   A moving picture coding program for causing a computer to function as the moving picture coding apparatus according to any one of claims 3 to 5.
JP2007100955A 2007-04-06 2007-04-06 Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program Expired - Fee Related JP4685825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007100955A JP4685825B2 (en) 2007-04-06 2007-04-06 Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007100955A JP4685825B2 (en) 2007-04-06 2007-04-06 Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2008259059A true JP2008259059A (en) 2008-10-23
JP4685825B2 JP4685825B2 (en) 2011-05-18

Family

ID=39982171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007100955A Expired - Fee Related JP4685825B2 (en) 2007-04-06 2007-04-06 Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program

Country Status (1)

Country Link
JP (1) JP4685825B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015023318A (en) * 2013-07-16 2015-02-02 富士通株式会社 Image processing device, image processing method and program
CN110268716A (en) * 2017-02-15 2019-09-20 苹果公司 Equivalent rectangular object data are handled to compensate distortion by spherical projection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11220736A (en) * 1998-01-30 1999-08-10 Canon Inc Image processor and, method and recording medium thereof
JP2003284023A (en) * 2001-11-28 2003-10-03 Victor Co Of Japan Ltd Decoding and receiving programs for variable length coding data
JP2004320765A (en) * 2003-04-11 2004-11-11 Fr Telecom Method, apparatus and computer program for watermarking in video image sequence
JP2004343501A (en) * 2003-05-16 2004-12-02 Fujitsu Ltd Information embedding method and information processor
JP2007043651A (en) * 2005-07-05 2007-02-15 Ntt Docomo Inc Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11220736A (en) * 1998-01-30 1999-08-10 Canon Inc Image processor and, method and recording medium thereof
JP2003284023A (en) * 2001-11-28 2003-10-03 Victor Co Of Japan Ltd Decoding and receiving programs for variable length coding data
JP2004320765A (en) * 2003-04-11 2004-11-11 Fr Telecom Method, apparatus and computer program for watermarking in video image sequence
JP2004343501A (en) * 2003-05-16 2004-12-02 Fujitsu Ltd Information embedding method and information processor
JP2007043651A (en) * 2005-07-05 2007-02-15 Ntt Docomo Inc Dynamic image encoding device, dynamic image encoding method, dynamic image encoding program, dynamic image decoding device, dynamic image decoding method, and dynamic image decoding program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015023318A (en) * 2013-07-16 2015-02-02 富士通株式会社 Image processing device, image processing method and program
CN110268716A (en) * 2017-02-15 2019-09-20 苹果公司 Equivalent rectangular object data are handled to compensate distortion by spherical projection
CN110268716B (en) * 2017-02-15 2023-04-28 苹果公司 Equivalent rectangular object data processing by spherical projection to compensate for distortion

Also Published As

Publication number Publication date
JP4685825B2 (en) 2011-05-18

Similar Documents

Publication Publication Date Title
JP5686499B2 (en) Image predictive encoding apparatus, method and program, image predictive decoding apparatus, method and program, and encoding / decoding system and method
KR101366242B1 (en) Method for encoding and decoding motion model parameter, and method and apparatus for video encoding and decoding using motion model parameter
JP6559309B2 (en) Image predictive decoding method
JP5313916B2 (en) Video coding and decoding method and apparatus using texture synthesis
JP4993676B2 (en) Image coding apparatus and image coding method
US20100195722A1 (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
JP2007116351A (en) Image prediction coding apparatus, image prediction decoding apparatus, image prediction coding method, image prediction decoding method, image prediction coding program, and image prediction decoding program
JP2010268504A (en) Method and apparatus for coding motion information
WO2010032693A1 (en) Moving image encoding device, moving image decoding device, moving image encoding method, moving image decoding method, moving image encoding program, and moving image decoding program
JP2007300380A (en) Image predictive encoding device, image predictive encoding method, image predictive encoding program, image predictive decoding device, image predictive decoding method, and image predictive decoding program
KR102267770B1 (en) Method and device for determining a set of modifiable elements in a group of pictures
JP2008092352A (en) Image predictive coder, image predictive coding method, image predictive coding program, image prediction decoder, image predictive decoding method, and image predictive decoding program
JP4153410B2 (en) Hierarchical encoding method and apparatus, hierarchical decoding method and apparatus, hierarchical encoding program and recording medium recording the program, hierarchical decoding program and recording medium recording the program
WO2015028098A1 (en) Method and system for embedding information and authenticating a h.264 video using a digital watermark
JP4685825B2 (en) Moving picture decoding apparatus, method and program, and moving picture encoding apparatus, method and program
US20130094692A1 (en) Video watermarking method resistant to temporal desynchronization attacks
JP5139995B2 (en) Method and apparatus for watermarking a stream
JP4945541B2 (en) Digital watermark embedding detection method using degraded host signal
JP5698644B2 (en) Video predictive encoding method, video predictive encoding device, video predictive encoding program, video predictive decoding method, video predictive decoding device, and video predictive decode program
JP2007511938A (en) Video signal encoding method
KR101431046B1 (en) Video data encoding method of encoding video data for fruc, apparatus and storage medium thereof
Mohamed et al. Real-time motion estimation based video steganography with preserved consistency and local optimality
JP2006217339A (en) Coding apparatus and method, decoding apparatus and method, information processing system and method, recording medium, and program
Lu et al. Multipurpose video watermarking algorithm in the hybrid compressed domain
Ridgway et al. Developing a Video Steganography Toolkit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4685825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees