JP2008167267A - Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program - Google Patents
Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program Download PDFInfo
- Publication number
- JP2008167267A JP2008167267A JP2006355906A JP2006355906A JP2008167267A JP 2008167267 A JP2008167267 A JP 2008167267A JP 2006355906 A JP2006355906 A JP 2006355906A JP 2006355906 A JP2006355906 A JP 2006355906A JP 2008167267 A JP2008167267 A JP 2008167267A
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion
- unit
- prediction
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
この発明は、同一時刻に撮影された複数の画像(ステレオ画像)を符号化するステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラムに関するものである。 The present invention relates to a stereo image encoding device, a stereo image encoding method, and a stereo image encoding program for encoding a plurality of images (stereo images) taken at the same time.
従来のステレオ画像符号化装置は、視差のない背景画像と視差のある立体部品画像を入力する。
ただし、視差のない背景画像と視差のある立体部品画像は、いずれも動画像であり、また、立体部品画像は、2台のカメラを平行に配置して撮影されたステレオ画像の中から、注視物体だけが切り出されたものであり、画像の視差は水平成分のみを有している。
A conventional stereo image encoding apparatus inputs a background image without parallax and a three-dimensional component image with parallax.
However, the background image without parallax and the 3D component image with parallax are both moving images, and the 3D component image is a gaze from a stereo image taken by arranging two cameras in parallel. Only the object is cut out, and the parallax of the image has only a horizontal component.
ステレオ画像符号化装置は、背景画像と立体部品画像を入力すると、背景画像と立体部品画像の符号化を実施する。
背景画像の符号化は、一般的に知られている16×16画素等からなるブロックを符号化単位として、ブロックマッチングを実施する動き補償予測符号化を行うことで実施される。
立体部品画像の符号化は、左目用の部品画像については、一般的に知られているブロックマッチングを用いる動き補償予測符号化を行うことで符号化される。
右目用の部品画像については、同時刻の左目用画像を用いる視差補償を行うことで符号化される。
なお、従来のステレオ画像符号化装置における動き補償は、上述したように、ブロックマッチングを実施する動き補償予測符号化が行われるが、部品画像の特徴や特性によって動き補償予測符号化が制御されるものではない(例えば、特許文献1を参照)。
When the stereo image encoding device receives the background image and the three-dimensional component image, the stereo image encoding device encodes the background image and the three-dimensional component image.
The background image is encoded by performing motion compensation predictive encoding that performs block matching using a generally known block of 16 × 16 pixels or the like as an encoding unit.
In the encoding of the three-dimensional component image, the component image for the left eye is encoded by performing motion compensation prediction encoding using generally known block matching.
The right-eye component image is encoded by performing parallax compensation using the left-eye image at the same time.
Note that, as described above, motion compensation prediction coding in which block matching is performed is performed in motion compensation in a conventional stereo image coding device, but motion compensation prediction coding is controlled according to the characteristics and characteristics of component images. It is not a thing (for example, refer patent document 1).
従来のステレオ画像符号化装置は以上のように構成されているので、左目用の部品画像がブロックマッチングを用いる動き補償予測符号化を行うことで符号化されるが、部品画像の特徴や特性によって動き補償予測符号化が制御されるものではないため、部品画像の実際の動きと離れた動き補償予測符号化が行われることがあり、部品画像の符号化精度が劣化することがあるなどの課題があった。 Since the conventional stereo image encoding apparatus is configured as described above, the component image for the left eye is encoded by performing motion compensation prediction encoding using block matching, but depending on the characteristics and characteristics of the component image Since motion compensation predictive coding is not controlled, problems such as motion compensated predictive coding away from the actual motion of the component image may be performed, and the coding accuracy of the component image may deteriorate. was there.
この発明は上記のような課題を解決するためになされたもので、実際の動きに近い動き補償予測符号化を実現して、複数の画像の符号化精度を高めることができるステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラムを得ることを目的とする。 The present invention has been made in order to solve the above-described problems, and realizes a motion compensated predictive coding close to an actual motion and can improve the coding accuracy of a plurality of images. An object is to obtain a stereo image encoding method and a stereo image encoding program.
この発明に係るステレオ画像符号化装置は、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段とを設け、符号化手段が動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行うようにしたものである。 The stereo image encoding apparatus according to the present invention includes a grouping unit that groups areas in a screen according to the parallax calculated by the parallax calculating unit, and a characteristic extraction that extracts characteristics of each region grouped by the grouping unit And a motion prediction means for predicting the motion of each area grouped by the grouping means in consideration of the characteristics extracted by the characteristic extraction means, and the encoding means predicts the motion of each area by the motion prediction means. A plurality of images are encoded using the result.
この発明によれば、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段とを設け、符号化手段が動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行うように構成したので、実際の動きに近い動き補償予測符号化が実現されるようになり、その結果、複数の画像の符号化精度を高めることができる効果がある。 According to this invention, the grouping means for grouping the areas in the screen according to the parallax calculated by the parallax calculation means, the characteristic extraction means for extracting the characteristics of each area grouped by the grouping means, and the characteristic extraction In consideration of the characteristics extracted by the means, a motion prediction means for predicting the motion of each area grouped by the grouping means is provided, and the encoding means uses the motion prediction result of each area by the motion prediction means, Since the configuration is such that a plurality of images are encoded, motion compensated predictive encoding close to the actual motion can be realized, and as a result, there is an effect that the encoding accuracy of the plurality of images can be improved. .
実施の形態1.
図1はこの発明の実施の形態1によるステレオ画像符号化装置を示す構成図であり、図において、カメラ1は三次元空間内の対象物を撮影し、その撮影結果である画像Aを出力する。
カメラ2はカメラ1と異なる位置に設置され、カメラ1と同一時刻に同一の対象物を撮影し、その撮影結果である画像Bを出力する。
FIG. 1 is a block diagram showing a stereo image coding apparatus according to
The
視差算出部3はカメラ1から出力された画像Aとカメラ2から出力された画像Bを入力し、画像Aと画像Bにおける画面内の視差を算出する処理を実施する。なお、視差算出部3は視差算出手段を構成している。
グルーピング部4は視差算出部3により算出された視差に応じて画面内の領域をグループ分けして、グループ分けした各領域の画像(以下、「グループ領域画像」と称する)を出力するグルーピング処理と、各グループ領域画像の特性(例えば、分布状況、大きさ、形状、模様、色)を抽出して、各グループ領域画像の特性を示すグループ領域特性情報を出力する特性抽出処理とを実施する。
なお、グルーピング部4はグルーピング手段及び特性抽出手段を構成している。
The
The
The
識別子情報付加部5はグルーピング部4から出力されたグループ領域特性情報に対応する識別子を動き予測部7に出力する。
予測参照画像メモリ6は画像A,Bと異なる時刻に撮影された予測参照用の画像(以下、「予測参照画像」と称する)を格納しているメモリである。
動き予測部7は予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して(識別子情報付加部5から出力された識別子からグループ領域画像の特性を把握する)、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを出力する。なお、動き予測部7は動き予測手段を構成している。
The identifier
The prediction
The
符号化部8は動き予測部7から出力された動きベクトルを用いて、カメラ1,2から出力された画像A,Bの符号化を実施して、その符号化結果である符号化データを出力する一方、図示せぬエンコーダにより符号化データが復号された局部復号画像を予測参照画像として予測参照画像メモリ6に格納する。なお、符号化部8は符号化手段を構成している。
The
図1の例では、ステレオ画像符号化装置の構成要素である視差算出部3、グルーピング部4、識別子情報付加部5、動き予測部7及び符号化部8がそれぞれ専用のハードウェア(例えば、MPUを実装している半導体集積回路基板)で構成されているものを想定しているが、ステレオ画像符号化装置がコンピュータで構成されている場合、ステレオ画像符号化装置の構成要素である視差算出部3、グルーピング部4、識別子情報付加部5、動き予測部7及び符号化部8の処理内容を記述しているステレオ画像符号化プログラムをコンピュータのメモリに格納し、コンピュータのCPUが当該メモリに格納されているステレオ画像符号化プログラムを実行するようにしてもよい。
In the example of FIG. 1, the
図2はこの発明の実施の形態1によるステレオ画像符号化方法を示すフローチャートであり、図3はカメラ1,2,により撮影された画像A,Bと画面内の視差を示す説明図である。
FIG. 2 is a flowchart showing a stereo image encoding method according to
次に動作について説明する。
カメラ1,2は、三次元空間内の同一の対象物を同一時刻に撮影すると、その撮影結果である画像A,Bを出力する。
ここで、図3(a)はカメラ1により撮影された画像Aであり、この実施の形態1では、画像Aは左目用画像として使用される。
図3(b)はカメラ2により撮影された画像Bであり、この実施の形態1では、画像Bは右目用画像として使用される。
Next, the operation will be described.
When the
Here, FIG. 3A shows an image A photographed by the
FIG. 3B shows an image B taken by the
視差算出部3は、カメラ1から画像Aを入力し、カメラ2から画像Bを入力すると、画像Aと画像Bにおける画面内の視差を算出する(ステップST1)。
図3(c)は画像A,Bにおける画面内の視差を示しており、画像Aと画像B内に存在している2つの対象物を点線で表して、便宜上、視差の画面内に合成している。
画像Aと画像Bにおける画面内の視差は、画像Aと画像Bにおける画面内の対象物のずれを表すものであり、例えば、画像Aを基準にして、画像Bの画面内の対象物のずれを各画素について算出することにより視差を求めることができる。
When the image A is input from the
FIG. 3C shows the in-screen parallax in the images A and B. Two objects existing in the image A and the image B are represented by dotted lines, and are combined in the parallax screen for convenience. ing.
The parallax in the screens of the images A and B represents the displacement of the objects in the screens of the images A and B. For example, the displacement of the objects in the screen of the image B on the basis of the image A. Can be obtained for each pixel.
図3(c)では、各画素の視差について例示しており、図中の矢印は、視差を表すものである。実際には画素毎に視差を算出するが、図3(c)では、便宜上いくつかを例として表示している。
図3(c)では、背景の視差が一番小さく、楕円状の対象物の視差が一番大きく、方形状の対象物は2番目に視差が大きい。
FIG. 3C illustrates the parallax of each pixel, and an arrow in the figure represents the parallax. Actually, the parallax is calculated for each pixel, but in FIG. 3C, some are displayed as an example for convenience.
In FIG. 3C, the parallax of the background is the smallest, the parallax of the elliptical object is the largest, and the rectangular object has the second largest parallax.
グルーピング部4は、視差算出部3が画像Aと画像Bにおける画面内の視差を算出すると、画像Aと画像Bにおける画面内の視差に応じて画面内の領域のグループ分けを行う(ステップST2)。
即ち、グルーピング部4は、画面内の領域の中で、視差が同値の領域を同一のグループに分類し、同一グループの領域の画像をグループ領域画像として識別子情報付加部5及び動き予測部7に出力する。
図3(a)(b)の例では、楕円状の対象物の領域が同一のグループに分類され、方形状の対象物の領域が同一のグループに分類され、また、背景の領域が同一のグループに分類されるので、グルーピング部4は、図3(a)に示すように、画像Aに含まれている楕円状の対象物に係るグループ領域画像と、方形状の対象物に係るグループ領域画像と、背景に係るグループ領域画像とを出力する。また、図3(b)に示すように、画像Bに含まれている楕円状の対象物に係るグループ領域画像と、方形状の対象物に係るグループ領域画像と、背景に係るグループ領域画像とを出力する。
ここでは、グルーピング部4が、視差が同値の領域を同一のグループに分類するものについて示したが、視差がほぼ同じ領域(任意の範囲の視差を有する領域)を同一のグループに分類するようにしてもよい。
When the
That is, the
In the example of FIGS. 3A and 3B, the areas of the elliptical objects are classified into the same group, the areas of the rectangular objects are classified into the same group, and the background area is the same. As shown in FIG. 3A, the
Here, the
グルーピング部4は、画面内の視差に応じて画面内の領域をグループ分けすると、各グループ領域画像の特性を抽出し、各グループ領域画像の特性を示すグループ領域特性情報を識別子情報付加部5に出力する(ステップST3)。
即ち、グルーピング部4は、各グループ領域画像の特性として、例えば、分布状況、大きさ、形状、模様、色などを抽出する。
グループ領域画像の分布状況は、例えば、画像A,Bのピクチャ(図4の点線で表されている枠)が水平方向と垂直方向にそれぞれ4分割(ピクチャが2次元平面的に16分割)され、グループ領域画像が何れの分割領域に存在しているか表すものであり、4ビットの情報で表される。
When the
That is, the
As for the distribution status of the group area images, for example, the pictures of images A and B (frames represented by dotted lines in FIG. 4) are each divided into four parts in the horizontal direction and the vertical direction (the picture is divided into 16 two-dimensional planes). This indicates in which divided area the group area image exists, and is represented by 4-bit information.
グループ領域画像の大きさは、例えば、グループ領域画像が閾値(面積に関する閾値)によって4つのレベルに分類されたものであり、2ビットの情報で表される。
グループ領域画像の形状は、例えば、グループ領域画像が4種類の形状(三角形、四角形、円形、その他の形状)に分類されたものであり、2ビットの情報で表される。
グループ領域画像の模様は、例えば、グループ領域画像の分散値が閾値によって4種類に分類されたものであり、2ビットの情報で表される。
グループ領域画像の色は、例えば、グループ領域画像が8色に分類されたものであり、3ビットの情報で表される。
The size of the group region image is, for example, a group region image classified into four levels by a threshold value (threshold value related to the area), and is represented by 2-bit information.
The shape of the group area image is, for example, a group area image that is classified into four types of shapes (triangle, quadrangle, circle, and other shapes), and is represented by 2-bit information.
The pattern of the group area image is, for example, one in which the dispersion value of the group area image is classified into four types according to the threshold value, and is represented by 2-bit information.
The color of the group area image is, for example, a group area image classified into 8 colors, and is represented by 3-bit information.
ここでは、グルーピング部4が各グループ領域画像の特性として、例えば、分布状況、大きさ、形状、模様、色などを抽出するものについて示したが、これに限るものではなく、例えば、輝度平均値、最大画素値、最小画素値、画素範囲などを抽出するようにしてもよい。
なお、グループ領域画像の分布状況については、例えば、10分割や20分割など、他の分割数であってもよく、対象物の2次元座標位置でもよい。
また、グループ領域画像の大きさのレベル数は他の数でもよく、形状、模様、色もその他の分類方法でもよい。
Here, the
In addition, about the distribution condition of a group area | region image, other division numbers, such as 10 divisions and 20 divisions, may be sufficient, for example, and the two-dimensional coordinate position of a target object may be sufficient.
The number of levels of the size of the group area image may be other numbers, and the shape, pattern, and color may be other classification methods.
識別子情報付加部5は、グルーピング部4から各グループ領域画像の特性を示すグループ領域特性情報を受けると、そのグループ領域特性情報に対応する識別子を動き予測部7に出力する(ステップST4)。
即ち、識別子情報付加部5は、動き予測部7が楕円の対象物に係るグループ領域画像(図4(a)を参照)と、方形状の対象物に係るグループ領域画像(図4(b)を参照)と、背景に係るグループ領域画像とを識別して、グループ領域画像を同一の特性又は類似の特性を有するカテゴリーに分類することができるようにするため、例えば、背景に係るグループ領域画像の識別子として「0」、方形状の対象物に係るグループ領域画像の識別子として「10」、楕円状の対象物に係るグループ領域画像の識別子として「20」を設定し、それらの識別子を動き予測部7に出力する。
When the identifier
That is, the identifier
動き予測部7は、識別子情報付加部5からグループ領域特性情報に対応する識別子を受けると、その識別子を参照して、グルーピング部4から出力される各グループ領域画像の特性を把握し、予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、各グループ領域画像に対応する予測参照画像を探索する(ステップST5)。
例えば、グルーピング部4から出力されるグループ領域画像が、方形状の対象物に係るグループ領域画像であれば、識別子「10」から当該グループ領域画像の形状が方形状であると認識し、予測参照画像メモリ6の中から、方形状の予測参照画像を探索する。
When the
For example, if the group region image output from the
動き予測部7は、各グループ領域画像に対応する予測参照画像を探索すると、その予測参照画像を用いて、各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを符号化部8に出力する(ステップST6)。
ここで、動きベクトルは、グループ領域画像と予測参照画像における同位置の画素の差分絶対値を求めて、その領域画像内の差分絶対値の総和(差分絶対値和)を算出し、その差分絶対値和が最小になるときの予測参照画像内の画像領域位置を示すベクトルに相当する。
また、動きベクトルは、画像A,B内のグループ領域画像の位置からの変位に相当し、画像A,B内のグループ領域画像の位置から動きベクトルが指す位置(例えば、領域の左上)にあるピクチャ内の画像領域(予測参照画像メモリ6に格納されているピクチャ(図4の点線枠を参照)内の画像領域)が、グループ領域画像に近い画像領域(グループ領域画像に対応する予測参照画像)に相当する。
When searching for a prediction reference image corresponding to each group region image, the
Here, the motion vector calculates the absolute difference value of the pixels at the same position in the group region image and the predicted reference image, calculates the sum of the absolute difference values (difference absolute value sum) in the region image, and the difference absolute value This corresponds to a vector indicating the image region position in the predicted reference image when the value sum is minimized.
The motion vector corresponds to a displacement from the position of the group area image in the images A and B, and is located at the position indicated by the motion vector from the position of the group area image in the images A and B (for example, the upper left of the area). An image region in a picture (an image region in a picture (see the dotted frame in FIG. 4) stored in the predicted reference image memory 6) is close to a group region image (a predicted reference image corresponding to the group region image) ).
符号化部8は、動き予測部7から動きベクトルを受けると、その動きベクトルを用いて、カメラ1,2から出力された画像A,Bの符号化を実施し、その符号化結果である符号化データを出力する(ステップST7)。
以下、符号化部8における符号化処理の一例を具体的に説明する。
符号化部8は、動き予測部7から動きベクトルを受けると、カメラ1の画像Aに含まれているグループ領域画像の位置から動きベクトルが指す位置にあるピクチャ内の画像領域(グループ領域画像に対応する予測参照画像)を特定して、そのグループ領域画像と予測参照画像の差分画像を求める。
符号化部8は、画像Aに含まれているグループ領域画像と予測参照画像の差分画像を求めると、その差分画像と動きベクトルを符号化する。
When the
Hereinafter, an example of the encoding process in the
When the
When the
次に、符号化部8は、カメラ2の画像Bに含まれているグループ領域画像の位置から動きベクトルが指す位置にあるピクチャ内の画像領域(グループ領域画像に対応する予測参照画像)を特定して、そのグループ領域画像と予測参照画像の差分画像を求める。
符号化部8は、画像Bに含まれているグループ領域画像と予測参照画像の差分画像を求めると、その差分画像と動きベクトルを符号化する。
符号化部8は、カメラ1,2から出力された画像A,Bの符号化を実施して符号化データを出力すると、後続の画像の符号化に対処できるようにするため、図示せぬエンコーダにより符号化データが復号された局部復号画像を予測参照画像として予測参照画像メモリ6に格納する。
Next, the
When the
The
以上で明らかなように、この実施の形態1によれば、視差算出部3により算出された視差に応じて画面内の領域のグループ分けを実施するとともに、グループ分けした各領域の特性を抽出するグルーピング部4と、グルーピング部4により抽出された特性を考慮して、グルーピング部4によりグループ分けされた各領域の動きを予測する動き予測部7とを設け、符号化部8が動き予測部7による各領域の動き予測結果を用いて、画像A,Bの符号化を行うように構成したので、実際の動きに近い動き補償予測符号化が実現されるようになり、その結果、画像A,Bの符号化精度を高めることができる効果を奏する。
As is apparent from the above, according to the first embodiment, the areas in the screen are grouped according to the parallax calculated by the
また、この実施の形態1によれば、グルーピング部4が各グループ領域画像の特性として、各領域の分布状況、大きさ、形状、模様又は色を抽出するように構成したので、各グループ領域画像を同一の特性又は類似の特性を持つカテゴリーに分けることができるようになり、その結果、動きベクトルの探索効率を高めることができる効果を奏する。
Further, according to the first embodiment, the
なお、この実施の形態1では、画像Aを左目用画像、画像Bを右目用画像として使用するものについて示したが、画像Aを右目用画像、画像Bを左目用画像として使用するようにしてもよく、また、画像A,Bを何目用画像として固定しなくてもよい。
また、この実施の形態1では、2台のカメラ1,2により撮影された画像A,Bを使用するものについて示したが、3台以上のカメラにより撮影された3種類以上の画像を使用するようにしてもよく、また、3種以上の画像の中から任意の2種の画像を使用するようにしてもよい。
In the first embodiment, the image A is used as the left-eye image and the image B is used as the right-eye image. However, the image A is used as the right-eye image and the image B is used as the left-eye image. In addition, it is not necessary to fix the images A and B as the image for what number.
In the first embodiment, the images A and B photographed by the two
この実施の形態1では、視差算出部3が画面内の視差として、画像Aを基準にして、画像Bの画面内の対象物のずれを各画素について算出するものについて示したが、画像A以外の画像を基準画像としてもよく、また、画面内の対象物のずれを画素毎ではなく、複数の画素から構成される画像領域毎に算出するようにしてもよい。
In the first embodiment, the
この実施の形態1では、識別子情報付加部5が、背景に係るグループ領域画像の識別子「0」と、方形状の対象物に係るグループ領域画像の識別子「10」と、楕円状の対象物に係るグループ領域画像の識別子「20」とを設定するものについて示したが、図5に示すように、方形状の対象物に係るグループ領域画像や、楕円状の対象物に係るグループ領域画像が複数存在する場合には、例えば、方形状の対象物に係るグループ領域画像の識別子として「10」と「11」、楕円状の対象物に係るグループ領域画像の識別子として「20」と「21」を設定するようにしてもよい。
In the first embodiment, the identifier
また、図5に示すように、方形状の対象物に係るグループ領域画像や、楕円状の対象物に係るグループ領域画像が複数存在する場合でも、複数の方形状の対象物に係るグループ領域画像を同一グループとして「10」の識別子を設定し、また、複数の楕円状の対象物に係るグループ領域画像を同一グループとして「20」の識別子を設定するようにしてもよい。 Further, as shown in FIG. 5, even when there are a plurality of group area images related to a rectangular object or a plurality of group area images related to an elliptical object, the group area images related to a plurality of square objects. The identifier of “10” may be set for the same group, and the identifier of “20” may be set for the group region images related to the plurality of elliptical objects as the same group.
実施の形態2.
上記実施の形態1では、動き予測部7が予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、各グループ領域画像に対応する予測参照画像を探索するものについて示したが、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を予め設定された指定領域と各領域が重なる範囲に制御(制限)するようにしてもよい。
In the first embodiment, the
即ち、上記実施の形態1では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、図4の点線の枠で表しているピクチャの全てを画像の探索範囲としているものについて示したが、この実施の形態2では、図6に示すように、予め、例えば、方形やひし形状の領域(以下、「指定領域」と称する)を設定し(図6の一点破線の枠を参照)、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を当該指定領域とグループ領域画像が重なる範囲に制御するようにしてもよい。
動き予測部7は、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御する場合、指定領域とグループ領域画像が重なる範囲の外の領域が探索領域から除外され、その重なる範囲だけが探索領域となるため、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる。
That is, in the first embodiment, when the
When the
したがって、この実施の形態2の場合、例えば、グループ領域画像が点光源などの1点画素であれば、対象となる1点の画素のみについて、動きベクトルの探索を行うことになる。
この実施の形態2では、一般的に知られているブロック単位のベクトル探索に限る必要はなく、1点光源や任意形状のオブジェクト探索でもよい。
Therefore, in the case of the second embodiment, for example, if the group region image is a single point pixel such as a point light source, the motion vector is searched for only one target pixel.
In the second embodiment, it is not necessary to limit to a generally known block unit vector search, and a one-point light source or an arbitrarily shaped object search may be used.
実施の形態3.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合、図7に示すように、グループ領域画像の形状や画面内位置によっては、画像ブロックがグループ領域画像の境界を跨ぐことがあり得る。
In
そこで、この実施の形態3では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御(制限)するようにする。
即ち、指定領域とグループ領域画像が重なる部分を一部に含む画像ブロックについても、動きベクトルの探索対象に含めるようにする。
動き予測部7は、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御し、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合、画像ブロック毎に予測評価値を求め、最小評価値に対応する動きベクトルを出力することになる。
ここでは、画像ブロック毎に予測評価値を求め、最小評価値に対応する動きベクトルを出力するものについて示したが、予測評価値は、一般的に用いられる差分絶対値和などでもよく、また、閾値以下の評価値に対応する動きベクトルを出力するようにしてもよい。
Therefore, in the third embodiment, when the
That is, an image block that partially includes a portion where the designated area and the group area image overlap is also included in the motion vector search target.
The
Here, the prediction evaluation value is obtained for each image block, and the motion vector corresponding to the minimum evaluation value is output, but the prediction evaluation value may be a generally used difference absolute value sum, You may make it output the motion vector corresponding to the evaluation value below a threshold value.
以上で明らかなように、この実施の形態3によれば、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御するように構成したので、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the third embodiment, when the
実施の形態4.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、動き予測部7が各グループ領域画像の代表動きベクトルを求め、画像の探索範囲を代表動きベクトルを基準とする範囲に制御(制限)するようにしてもよい。
In
図8は代表動きベクトルを説明する説明図である。
動き予測部7は、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像メモリ6に格納されている予測参照画像の中で、各グループ領域画像の差分絶対値和が最小になるベクトルを代表動きベクトルとして求める。
図8の例では、方形状の対象物に係るグループ領域画像の代表動きベクトルと、楕円状の対象物に係るグループ領域画像の代表動きベクトルを求めている。
FIG. 8 is an explanatory diagram for explaining a representative motion vector.
When the
In the example of FIG. 8, the representative motion vector of the group region image related to the rectangular object and the representative motion vector of the group region image related to the elliptical object are obtained.
動き予測部7は、各グループ領域画像の代表動きベクトルを求めると、画像の探索範囲を代表動きベクトルを基準とする範囲に制御して(一点破線の枠を参照)、各グループ領域画像に対応する予測参照画像を探索(動きベクトルを探索)する。
即ち、動き予測部7は、各グループ領域画像を複数の領域に分割し、分割領域毎に動きベクトルの探索を行う。
このとき、0原点を基準にする代わりに、代表動きベクトルを基準(中心)にする探索範囲で動きベクトルの探索を行う。即ち、代表動きベクトルを0原点にオフセットとして加算し、その加算点を基準点とする探索範囲で動きベクトルの探索を行う。
When the
That is, the
At this time, instead of using the zero origin as a reference, the motion vector is searched in a search range using the representative motion vector as a reference (center). That is, the representative motion vector is added as an offset to the zero origin, and the motion vector is searched in the search range using the addition point as a reference point.
以上で明らかなように、この実施の形態4によれば、動き予測部7が各グループ領域画像の代表動きベクトルを求め、画像の探索範囲を代表動きベクトルを基準とする範囲に制御するように構成したので、各グループ領域画像の近傍で予測参照画像の探索(動きベクトルの探索)を行うことができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As apparent from the above, according to the fourth embodiment, the
なお、この実施の形態4では、動き予測部7が、予測参照画像メモリ6に格納されている予測参照画像の中で、各グループ領域画像の差分絶対値和が最小になるベクトルを代表動きベクトルとして求めるものについて示したが、周辺画像を含めず、グループ領域画像そのものに対して、予測参照画像内で代表動きベクトルを求めてもよい。
また、図9(a)に示すように、グループ領域画像を含む幾つかの正方ブロックからなる領域(四隅にある点線の正方ブロックの領域は含めても、含めなくてもよい)に対して、予測参照画像内で代表動きベクトルを求めてもよい。
また、図9(b)に示すように、グループ領域画像を方形領域に対して、予測参照画像内で代表動きベクトルを求めてもよく、代表動きベクトルを求める際のグループ領域画像に対するマッチング領域は任意でよい。
In the fourth embodiment, the
Further, as shown in FIG. 9A, for an area composed of several square blocks including a group area image (the area of dotted square blocks at the four corners may or may not be included) The representative motion vector may be obtained in the predicted reference image.
Further, as shown in FIG. 9B, a representative motion vector may be obtained in a predicted reference image with respect to a square region of a group region image, and a matching region for the group region image when the representative motion vector is obtained is Optional.
さらに、代表動きベクトルを求める際、グループ領域画像内の画素又はグループ領域画像の近傍まで含めた対象領域の画素を用いて、代表動きベクトルを求めるとき、対象領域の全ての画素を用いて、代表動きベクトルの探索を行ってもよい。また、対象領域内の画素をサブサンプリングし、サブサンプリングされた画素を用いて、代表動きベクトルの探索を行ってもよく、対象領域の輝度成分のみを用いて、代表動きベクトルの探索を行ってもよい。また、対象領域の輝度成分及び色差成分を用いて、代表動きベクトルの探索を行ってもよく、対象領域の画素の取扱は任意でよい。 Further, when obtaining the representative motion vector, when obtaining the representative motion vector using the pixels in the group area image or the pixels in the target area including the vicinity of the group area image, the representative motion vector is obtained using all the pixels in the target area. A motion vector search may be performed. Alternatively, subpixels in the target area may be subsampled, and the representative motion vector may be searched using the subsampled pixels, or the representative motion vector may be searched using only the luminance component of the target area. Also good. In addition, the representative motion vector may be searched using the luminance component and the color difference component of the target region, and the handling of the pixels of the target region may be arbitrary.
実施の形態5.
図10はこの発明の実施の形態5によるステレオ画像符号化装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
動き位置情報設定部11はカメラ1,2の動き及び位置を示す動き位置情報を入力して、その動き位置情報を必要なピクチャ分だけ記憶し、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を出力する。
FIG. 10 is a block diagram showing a stereo image coding apparatus according to
The motion position
探索範囲制御部12は動き位置情報設定部11から出力されたカメラ変化情報と視差算出部3により算出された視差に基づいて予測参照画像の探索範囲を決定する処理を実施する。
動き予測部13は図1の動き予測部7と同様に、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を探索範囲制御部12により決定された探索範囲に制御(制限)する。
なお、動き位置情報設定部11、探索範囲制御部12及び動き予測部13から動き予測手段が構成されている。
The search
Similar to the
The motion position
次に動作について説明する。
動き位置情報設定部11、探索範囲制御部12及び動き予測部13以外は、上記実施の形態1と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
Next, the operation will be described.
Except for the motion position
When the motion position
動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を探索範囲制御部12に出力する。
The motion position
探索範囲制御部12は、動き位置情報設定部11からカメラ変化情報を受けると、そのカメラ変化情報と視差算出部3により算出された視差に基づいて予測参照画像の探索範囲を決定する。
探索範囲制御部12における探索範囲の具体的な決定方法については、下記の実施の形態7以降で後述する。
When receiving the camera change information from the motion position
A specific method for determining the search range in the search
動き予測部13は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索して、各グループ領域画像の動きを予測するが、予測参照画像の探索効率を高めるため、図1の動き予測部7と異なり、予測参照画像の探索範囲を探索範囲制御部12により決定された探索範囲に制御する。
The motion prediction unit 13 searches for a prediction reference image corresponding to each group region image and predicts the motion of each group region image in the same manner as the
以上で明らかなように、この実施の形態5によれば、カメラ1,2の動き及び位置を示す動き位置情報を入力し、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を動き位置情報が示すカメラの動き及び位置に応じて制御するように構成したので、実際の対象物の動きに対応する探索範囲で予測参照画像を探索することができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the fifth embodiment, the motion position information indicating the motion and position of the
実施の形態6.
上記実施の形態5では、動き位置情報設定部11がカメラ1,2の動き及び位置を示す動き位置情報を入力するものについて示したが、カメラ1,2の動きを示す情報として、カメラ1,2の水平回転角又は垂直回転角を含む情報を入力し、カメラ1,2の位置を示す情報として、カメラ1,2の三次元方向の移動距離(少なくとも1方向以上の移動距離)を含む情報を入力するようにしてもよい。
動き位置情報設定部11がカメラ1,2の水平回転角又は垂直回転角を含む情報や、カメラ1,2の三次元方向の移動距離を含む情報を入力すれば、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を正確に捉えることができる効果を奏する。
In the fifth embodiment, the movement position
If the motion position
ここでは、動き位置情報設定部11がカメラ1,2の水平回転角又は垂直回転角を含む情報や、カメラ1,2の三次元方向の移動距離を含む情報を入力するものについて示したが、動き位置情報設定部11が焦点を原点とする水平移動角又は垂直移動角を含む情報や、カメラ1,2の撮像方向の3次元移動情報を入力するようにしてもよい。
また、焦点からの距離、相対位置を示す情報又は絶対位置を示す情報を入力するようにしてもよい。
Here, the movement position
Further, the distance from the focal point, information indicating a relative position, or information indicating an absolute position may be input.
実施の形態7.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7がグルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
In
図11はカメラ1,2の移動と探索範囲及びみかけ動きベクトルを示す説明図である。
図11では、無限遠方を基点として、その基点が画像の中心に置かれている状態で、回転しながらカメラ1,2が水平平面上で右から左に移動している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が回転移動したときに、カメラ1,2の移動前と移動後における各対象物の動き量を意味している。
FIG. 11 is an explanatory diagram showing the movement of the
FIG. 11 shows a state where the
In this case, the parallax of the group area image related to the elliptical object is larger than the parallax of the group area image related to the background, and the apparent amount of motion of the group area image related to the elliptical object having a large parallax is the parallax. Is larger than the apparent amount of motion of the group area image related to the small background.
Here, the apparent amount of movement is the amount of movement of each object before and after the movement of the
そこで、動き予測部7は、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくする。
即ち、視差が最も大きいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が小さいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
Therefore, the
That is, the search range of the predicted reference image corresponding to the group region image with the largest parallax is set to the maximum, and the search range of the predicted reference image corresponding to the group region image with the smallest parallax is set to a smaller range.
以上で明らかなように、この実施の形態7によれば、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7がグルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するように構成したので、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the seventh embodiment, when the
なお、通常、カメラ1,2は入力画像の中心に基点が存在するが、撮像系によっては基点が入力画像の中心にない場合もあり得るが、この実施の形態7では、基点が入力画像の中心にない場合にも対応することができる。
また、この実施の形態7では、カメラ1,2が水平平面上で回転移動するものについて示したが、カメラ1,2が任意方向に回転移動してもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
Normally, the
In the seventh embodiment, the
In addition, even if an upper limit of the motion vector search range is provided due to the size of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range may be the motion vector of the stereo image. Search efficiency can be increased.
実施の形態8.
上記実施の形態7では、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するものについて示したが、位置を変えずにカメラ1,2の回転が行われる場合、グルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
In
図12はカメラ1,2の定位置での回転と探索範囲及びみかけ動きベクトルを示す説明図である。
図12では、位置を変えずにカメラ1,2が水平平面上で回転している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より小さくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が固定位置で回転したときに、カメラ1,2の回転前と回転後における各対象物の動き量を意味している。
FIG. 12 is an explanatory diagram showing rotation of the
FIG. 12 shows a state where the
In this case, the parallax of the group area image related to the elliptical object is larger than the parallax of the group area image related to the background, and the apparent amount of motion of the group area image related to the elliptical object having a large parallax is the parallax. Is smaller than the apparent amount of motion of the group area image related to the background.
Here, the apparent amount of movement is the amount of each object before and after the rotation of the
そこで、動き予測部7は、位置を変えずにカメラ1,2の回転が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくする。
即ち、視差が最も小さいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が大きいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
Therefore, when the
That is, the search range of the prediction reference image corresponding to the group region image with the smallest parallax is set to the maximum, and the search range of the prediction reference image corresponding to the group region image with the large parallax is set to a smaller range.
以上で明らかなように、この実施の形態8によれば、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御するように構成したので、位置を変えずにカメラ1,2の回転が行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the eighth embodiment, when the
なお、この実施の形態8では、カメラ1,2が水平平面上を回転するものについて示したが、カメラ1,2が任意方向に回転するものであってもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
In the eighth embodiment, the
In addition, even if an upper limit of the motion vector search range is provided due to the size of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range may be the motion vector of the stereo image. Search efficiency can be increased.
実施の形態9.
上記実施の形態8では、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御するものについて示したが、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
Embodiment 9 FIG.
In
図13はカメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合の探索範囲及びみかけ動きベクトルを示す説明図である。
図13では、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる様子を表している。
カメラ1,2のズームインとズームアウトを行うと、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われるときに、カメラ1,2のズームイン(またはズームアウト)前と、ズームイン(またはズームアウト)後における各対象物の動き量を意味している。
FIG. 13 shows search ranges and apparent motion vectors when the
FIG. 13 shows a state in which the
When the
Here, the apparent amount of movement is determined when the position of the
そこで、動き予測部7は、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくする。
即ち、視差が最も大きいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が小さいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
Therefore, the
That is, the search range of the predicted reference image corresponding to the group region image with the largest parallax is set to the maximum, and the search range of the predicted reference image corresponding to the group region image with the smallest parallax is set to a smaller range.
以上で明らかなように、この実施の形態9によれば、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するように構成したので、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the ninth embodiment, when the
なお、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。 Even if an upper limit of the motion vector search range is provided due to the scale of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range is the motion vector of the stereo image. Search efficiency can be increased.
実施の形態10.
図14はこの発明の実施の形態10によるステレオ画像符号化装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
基準探索範囲設定部21はグルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画(例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像)に対応する予測参照画像の探索範囲を基準探索範囲として設定する処理を実施する。
探索範囲係数設定部22は各グループ領域画像の探索範囲係数を設定する処理を実施する。
Embodiment 10 FIG.
FIG. 14 is a block diagram showing a stereo image encoding apparatus according to Embodiment 10 of the present invention. In the figure, the same reference numerals as those in FIG.
The reference search
The search range
動き予測部23は図1の動き予測部7と同様に、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、基準探索範囲設定部21及び探索範囲係数設定部22の設定内容から、各グループ領域画像に対応する予測参照画像の探索範囲を決定する。
なお、基準探索範囲設定部21、探索範囲係数設定部22及び動き予測部23から動き予測手段が構成されている。
Similar to the
The reference search
次に動作について説明する。
基準探索範囲設定部21、探索範囲係数設定部22及び動き予測部23以外は、上記実施の形態1と同様である。
基準探索範囲設定部21は、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定する。
例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像が基準のグループ領域画像である旨の設定がなされている場合、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲(ここでは説明の便宜上、基準探索範囲を“S”とする)として設定する。
Next, the operation will be described.
Except for the reference search
The reference search
For example, when the group area image related to the elliptical object included in the images A and B is set to be the reference group area image, the elliptical shape included in the images A and B is set. The search range of the predicted reference image corresponding to the group region image related to the object is set as the standard search range (here, for convenience of explanation, the standard search range is “S”).
探索範囲係数設定部22は、グルーピング部4によりグループ分けされたグループ領域画像のうち、基準のグループ領域画以外のグループ領域画像の探索範囲係数を設定する。
例えば、画像A,Bに含まれている方形状の対象物に係るグループ領域画像の探索範囲係数を“1/2”に設定し、背景に係るグループ領域画像の探索範囲係数を“1/4”に設定する。
The search range
For example, the search range coefficient of the group area image related to the rectangular object included in the images A and B is set to “1/2”, and the search range coefficient of the group area image related to the background is set to “1/4”. Set to "".
動き予測部23は、基準探索範囲設定部21が基準のグループ領域画像に対応する予測参照画像の基準探索範囲を設定し、探索範囲係数設定部22が基準のグループ領域画以外のグループ領域画像の探索範囲係数を設定すると、基準のグループ領域画以外のグループ領域画像の探索範囲を次のように決定する。
基準のグループ領域画以外のグループ領域画像の探索範囲
=基準探索範囲×当該グループ領域画像の探索範囲係数
これにより、方形状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲は“S/2”、背景に係るグループ領域画像に対応する予測参照画像の探索範囲は“S/4”に決定される。
動き予測部23における予測参照画像の探索処理や動き予測処理は、図1の動き予測部7と同様であるため説明を省略する。
In the
Search range of group region images other than the standard group region image = reference search range × search range coefficient of the group region image Accordingly, the search range of the predicted reference image corresponding to the group region image related to the rectangular object is “ The search range of the predicted reference image corresponding to the group region image related to S / 2 "and the background is determined to be" S / 4 ".
The prediction reference image search processing and motion prediction processing in the
以上で明らかなように、この実施の形態10によれば、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定する基準探索範囲設定部21と、各グループ領域画像の探索範囲係数を設定する探索範囲係数設定部22とを備え、動き予測部23が各グループ領域画像に対応する予測参照画像を探索する際、基準探索範囲設定部21及び探索範囲係数設定部22の設定内容から、各グループ領域画像に対応する予測参照画像の探索範囲を決定するように構成したので、適正な探索範囲を計算によって簡単に求めることができる効果を奏する。
As apparent from the above, according to the tenth embodiment, the search range of the predicted reference image corresponding to the reference group region image among the group region images grouped by the
なお、この実施の形態10では、基準探索範囲設定部21及び探索範囲係数設定部22が識別子情報付加部5から出力される識別子を参照して、基準のグループ領域画像や、基準のグループ領域画像以外のグループ領域画像を識別するものについて示したが、視差算出部3により算出された視差を考慮して、基準探索範囲や探索範囲係数を設定するようにしてもよい。
また、この実施の形態10では、探索範囲係数設定部22がグループ領域画像の探索範囲係数として、“1/2”や“1/4”を設定するものについて示したが、0以上の任意の数であればよい。
また、この実施の形態10では、基準のグループ領域画像の探索範囲係数については設定していないが、探索範囲係数設定部22が基準のグループ領域画像の探索範囲係数として“1”を設定して出力するようにしてもよい。
In the tenth embodiment, the reference search
In the tenth embodiment, the search range
In the tenth embodiment, the search range coefficient of the reference group region image is not set, but the search range
実施の形態11.
上記実施の形態10では、例えば、楕円状の対象物に係るグループ領域画像が基準のグループ領域画像であるものとして事前に設定されているものについて示したが、基準探索範囲設定部21が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定するようにしてもよい。
In the tenth embodiment, for example, the group area image related to the elliptical object has been set in advance as the reference group area image. The group area image in which 1 and 2 are in focus may be determined as the reference group area image, and the search range of the predicted reference image corresponding to the group area image may be set as the reference search area.
このように、基準探索範囲設定部21がカメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定する場合、焦点が合うグループ領域画像の視差が最小になるため、基準のグループ領域画像に対応する予測参照画像の基準探索範囲が最小の探索範囲になる。
したがって、焦点が合うグループ領域画像と比べて、焦点の手前側のグループ領域画像ほど視差が大きくなって探索範囲が大きくなるため、探索範囲係数設定部22は、焦点の手前側のグループ領域画像ほど大きな探索範囲係数を設定することになる。
また、焦点の奥側のグループ領域画像ほど視差が大きくなって探索範囲が大きくなるため、探索範囲係数設定部22は、焦点の奥側のグループ領域画像ほど大きな探索範囲係数を設定することになる。
In this way, when the reference search
Therefore, since the parallax becomes larger and the search range becomes larger as the group region image on the near side of the focus becomes larger than the group region image on the focus, the search range
Further, since the parallax becomes larger and the search range becomes larger as the group area image on the deeper side of the focus, the search range
以上で明らかなように、この実施の形態11によれば、基準探索範囲設定部21が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定するように構成したので、カメラ1,2が動いたり、ズームインやズームアウトをしても、適正な探索範囲を設定することができる効果を奏する。
As is apparent from the above, according to the eleventh embodiment, the reference search
実施の形態12.
図15はこの発明の実施の形態12によるステレオ画像符号化装置を示す構成図であり、図において、図10と同一符号は同一または相当部分を示すので説明を省略する。
みかけ動きベクトル制御部31は動き位置情報設定部11から出力されるカメラ変化情報と視差算出部3により算出される視差からみかけ動きベクトルを算出する処理を実施する。
動き予測部32はみかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測する。
なお、動き位置情報設定部11、みかけ動きベクトル制御部31及び動き予測部32から動き予測手段が構成されている。
FIG. 15 is a block diagram showing a stereo image coding apparatus according to
The apparent motion
The motion prediction unit 32 searches for a predicted reference image corresponding to each group region image in consideration of the apparent motion vector calculated by the apparent motion
The motion position
次に動作について説明する。
みかけ動きベクトル制御部31及び動き予測部32以外は、上記実施の形態5と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、上記実施の形態5と同様に、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報をみかけ動きベクトル制御部31に出力する。
Next, the operation will be described.
Except for the apparent motion
When the motion position
The motion position
みかけ動きベクトル制御部31は、動き位置情報設定部11からカメラ変化情報を受けると、そのカメラ変化情報と視差算出部3により算出される視差からみかけ動きベクトルを算出する。
みかけ動きベクトルは、図11〜図13におけるグループ領域画像のみかけの動き量に相当する。
Upon receiving the camera change information from the motion position
The apparent motion vector corresponds to the apparent motion amount of the group area image in FIGS.
動き予測部32は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索して、各グループ領域画像の動きを予測するが、予測参照画像の探索効率を高めるため、図1の動き予測部7と異なり、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索する。
即ち、動き予測部32は、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを動きベクトルの探索範囲の基点(中心)において、みかけ動きベクトルを中心とする動きベクトルの探索を行う。
The motion prediction unit 32 searches for a prediction reference image corresponding to each group region image and predicts the motion of each group region image in the same manner as the
That is, the motion prediction unit 32 searches for the motion vector centered on the apparent motion vector at the base point (center) of the motion vector search range for the apparent motion vector calculated by the apparent motion
以上で明らかなように、この実施の形態12によれば、予測参照画像が撮影された時点から画像A,Bが撮影された時点までのカメラ1,2の変化を認識し、カメラ1,2の変化と視差算出部3により算出された視差からみかけ動きベクトルを算出し、みかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索するように構成したので、実際の対象物の動きに対応する探索範囲で予測参照画像を探索することができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the twelfth embodiment, the change in the
なお、この実施の形態12では、みかけ動きベクトルを動きベクトルの探索範囲の基点(中心)におくものについて示したが、その他条件、または、符号化効率の観点等の理由から、みかけ動きベクトルを動きベクトルの探索範囲の任意の位置におくようにしてもよい。 In the twelfth embodiment, although the apparent motion vector is set at the base point (center) of the motion vector search range, the apparent motion vector is changed for other reasons or from the viewpoint of encoding efficiency. You may make it place in the arbitrary positions of the search range of a motion vector.
実施の形態13.
上記実施の形態12では、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索するものについて示したが、図11に示すように、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
Embodiment 13 FIG.
In the twelfth embodiment, the search for the predicted reference image corresponding to each group region image in consideration of the apparent motion vector calculated by the apparent motion
図11は、上述したように、無限遠方を基点として、その基点が画像の中心に置かれている状態で、回転しながらカメラ1,2が水平平面上で右から左に移動している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が回転移動したときに、カメラ1,2の移動前と移動後における各対象物の動き量を意味している。
FIG. 11 shows a state in which the
In this case, the parallax of the group area image related to the elliptical object is larger than the parallax of the group area image related to the background, and the apparent amount of motion of the group area image related to the elliptical object having a large parallax is the parallax. Is larger than the apparent amount of motion of the group area image related to the small background.
Here, the apparent amount of movement is the amount of movement of each object before and after the movement of the
そこで、みかけ動きベクトル制御部31は、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを大きくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを小さくする。
即ち、視差が最も大きいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が小さいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
Thus, the apparent motion
That is, the apparent motion vector is maximized for the group area image having the largest parallax, and the apparent motion vector is made smaller for the group area image having the smallest parallax.
以上で明らかなように、この実施の形態13によれば、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the thirteenth embodiment, when the
なお、通常、カメラ1,2は入力画像の中心に基点が存在するが、撮像系によっては基点が入力画像の中心にない場合もあり得るが、この実施の形態13では、基点が入力画像の中心にない場合にも対応することができる。
また、この実施の形態13では、カメラ1,2が水平平面上で回転移動するものについて示したが、カメラ1,2が任意方向に回転移動してもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
Normally, the
In the thirteenth embodiment, the
In addition, even if an upper limit of the motion vector search range is provided due to the size of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range may be the motion vector of the stereo image. Search efficiency can be increased.
実施の形態14.
上記実施の形態13では、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするものについて示したが、図12に示すように、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が大きいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
Embodiment 14 FIG.
In the above-described thirteenth embodiment, the apparent motion
図12は、上述したように、位置を変えずにカメラ1,2が水平平面上で回転している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より小さくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が固定位置で回転したときに、カメラ1,2の回転前と回転後における各対象物の動き量を意味している。
FIG. 12 shows a state where the
In this case, the parallax of the group area image related to the elliptical object is larger than the parallax of the group area image related to the background, and the apparent amount of motion of the group area image related to the elliptical object having a large parallax is the parallax. Is smaller than the apparent amount of motion of the group area image related to the background.
Here, the apparent amount of movement is the amount of each object before and after the rotation of the
そこで、みかけ動きベクトル制御部31は、位置を変えずにカメラ1,2の回転が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを小さくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを大きくする。
即ち、視差が最も小さいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が大きいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
Therefore, when the
That is, the apparent motion vector for the group area image with the smallest parallax is maximized, and the apparent motion vector for the group area image with the largest parallax is made smaller.
以上で明らかなように、この実施の形態14によれば、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が大きいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、位置を変えずにカメラ1,2の回転が行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the fourteenth embodiment, when the
なお、この実施の形態14では、カメラ1,2が水平平面上を回転するものについて示したが、カメラ1,2が任意方向に回転するものであってもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
In the fourteenth embodiment, the
In addition, even if an upper limit of the motion vector search range is provided due to the size of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range may be the motion vector of the stereo image. Search efficiency can be increased.
実施の形態15.
上記実施の形態13では、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするものについて示したが、図13に示すように、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
Embodiment 15 FIG.
In the thirteenth embodiment, the apparent motion
図13は、上述したように、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる様子を表している。
カメラ1,2のズームインとズームアウトを行うと、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われるときに、カメラ1,2のズームイン(またはズームアウト)前と、ズームイン(またはズームアウト)後における各対象物の動き量を意味している。
FIG. 13 shows how the
When the
Here, the apparent amount of movement is determined when the position of the
そこで、みかけ動きベクトル制御部31は、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを大きくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを小さくする。
即ち、視差が最も大きいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が小さいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
Therefore, the apparent motion
That is, the apparent motion vector is maximized for the group area image having the largest parallax, and the apparent motion vector is made smaller for the group area image having the smallest parallax.
以上で明らかなように、この実施の形態15によれば、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the fifteenth embodiment, when the
なお、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。 Even if an upper limit of the motion vector search range is provided due to the scale of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range is the motion vector of the stereo image. Search efficiency can be increased.
実施の形態16.
図16はこの発明の実施の形態16によるステレオ画像符号化装置を示す構成図であり、図において、図15と同一符号は同一または相当部分を示すので説明を省略する。
基準みかけ動きベクトル設定部41はグルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画(例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像)のみかけ動きベクトルを基準みかけ動きベクトルとして設定する処理を実施する。
みかけ動きベクトル係数設定部42は各グループ領域画像のみかけ動きベクトル係数を設定する処理を実施する。
Embodiment 16 FIG.
FIG. 16 is a block diagram showing a stereo image coding apparatus according to Embodiment 16 of the present invention. In the figure, the same reference numerals as those in FIG.
The reference apparent motion vector setting unit 41 is a group region image (for example, a group region related to an elliptical object included in the images A and B) among the group region images grouped by the
The apparent motion vector
動き予測部43は図15の動き予測部32と同様に、みかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42の設定内容から、各グループ領域画像のみかけ動きベクトルを決定する。
なお、基準みかけ動きベクトル設定部41、みかけ動きベクトル係数設定部42及び動き予測部43から動き予測手段が構成されている。
Similarly to the motion prediction unit 32 in FIG. 15, the
The reference apparent motion vector setting unit 41, the apparent motion vector
次に動作について説明する。
基準みかけ動きベクトル設定部41、みかけ動きベクトル係数設定部42及び動き予測部43以外は、上記実施の形態1と同様である。
基準みかけ動きベクトル設定部41は、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定する。
例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像が基準のグループ領域画像である旨の設定がなされている場合、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトル(ここでは説明の便宜上、基準みかけ動きベクトルを“V”とする)として設定する。
Next, the operation will be described.
Except for the reference apparent motion vector setting unit 41, the apparent motion vector
The reference apparent motion vector setting unit 41 sets an apparent motion vector as a reference apparent motion vector among the group region images that are grouped by the
For example, when the group area image related to the elliptical object included in the images A and B is set to be the reference group area image, the elliptical shape included in the images A and B is set. The apparent motion vector of the group region image related to the object is set as a reference apparent motion vector (here, the reference apparent motion vector is “V” for convenience of explanation).
みかけ動きベクトル係数設定部42は、グルーピング部4によりグループ分けされたグループ領域画像のうち、基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル係数を設定する。
例えば、画像A,Bに含まれている方形状の対象物に係るグループ領域画像のみかけ動きベクトル係数を“1/2”に設定し、背景に係るグループ領域画像のみかけ動きベクトル係数を“1/4”に設定する。
The apparent motion vector
For example, the apparent motion vector coefficient for the group area image related to the rectangular object included in the images A and B is set to “1/2”, and the apparent motion vector coefficient for the group area image related to the background is set to “1”. Set to / 4 ".
動き予測部43は、基準みかけ動きベクトル設定部41が基準のグループ領域画像の基準みかけ動きベクトルを設定し、みかけ動きベクトル係数設定部42が基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル係数を設定すると、基準のグループ領域画以外のグループ領域画像のみかけ動きベクトルを次のように決定する。
基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル
=基準みかけ動きベクトル×当該グループ領域画像のみかけ動きベクトル係数
これにより、方形状の対象物に係るグループ領域画像のみかけ動きベクトルは“V/2”、背景に係るグループ領域画像のみかけ動きベクトルは“V/4”に決定される。
動き予測部43における予測参照画像の探索処理や動き予測処理は、図15の動き予測部32と同様であるため説明を省略する。
In the
The apparent motion vector of the group region image other than the reference group region image = reference apparent motion vector × the apparent motion vector coefficient of the group region image. Thus, the apparent motion vector of the group region image related to the rectangular object is “V / 2 ", the apparent motion vector of the group area image related to the background is determined to be" V / 4 ".
The prediction reference image search processing and motion prediction processing in the
以上で明らかなように、この実施の形態16によれば、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定する基準みかけ動きベクトル設定部41と、各グループ領域画像のみかけ動きベクトル係数を設定するみかけ動きベクトル係数設定部42とを備え、動き予測部43が各グループ領域画像に対応する予測参照画像を探索する際、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42の設定内容から、各グループ領域画像のみかけ動きベクトルを決定するように構成したので、適正なみかけ動きベクトルを計算によって簡単に求めることができる効果を奏する。
As is apparent from the above, according to the sixteenth embodiment, a reference for setting an apparent motion vector as a reference apparent motion vector in a reference group region image among group region images grouped by the
なお、この実施の形態16では、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42が識別子情報付加部5から出力される識別子を参照して、基準のグループ領域画像や、基準のグループ領域画像以外のグループ領域画像を識別するものについて示したが、視差算出部3により算出された視差を考慮して、基準みかけ動きベクトルやみかけ動きベクトル係数を設定するようにしてもよい。
また、この実施の形態16では、みかけ動きベクトル係数設定部42がグループ領域画像のみかけ動きベクトル係数として、“1/2”や“1/4”を設定するものについて示したが、0以上の任意の数であればよい。
また、この実施の形態16では、基準のグループ領域画像のみかけ動きベクトル係数については設定していないが、みかけ動きベクトル係数設定部42が基準のグループ領域画像のみかけ動きベクトル係数として“1”を設定して出力するようにしてもよい。
In the sixteenth embodiment, the reference apparent motion vector setting unit 41 and the apparent motion vector
In the sixteenth embodiment, the apparent motion vector
In the sixteenth embodiment, the apparent motion vector coefficient is not set for the reference group region image, but the apparent motion vector
実施の形態17.
上記実施の形態16では、例えば、楕円状の対象物に係るグループ領域画像が基準のグループ領域画像であるものとして事前に設定されているものについて示したが、基準みかけ動きベクトル設定部41が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定するようにしてもよい。
Embodiment 17. FIG.
In Embodiment 16 described above, for example, the group area image related to the elliptical object has been set in advance as the reference group area image, but the reference apparent motion vector setting unit 41 The group area image in which the
このように、基準みかけ動きベクトル設定部41がカメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定する場合、焦点が合うグループ領域画像の視差が最小になるため、基準のグループ領域画像の基準みかけ動きベクトルが最小のみかけ動きベクトルになる。
したがって、焦点が合うグループ領域画像と比べて、焦点の手前側のグループ領域画像ほど視差が大きくなってみかけ動きベクトルが大きくなるため、みかけ動きベクトル係数設定部42は、焦点の手前側のグループ領域画像ほど大きなみかけ動きベクトル係数を設定することになる。
また、焦点の奥側のグループ領域画像ほど視差が大きくなってみかけ動きベクトルが大きくなるため、みかけ動きベクトル係数設定部42は、焦点の奥側のグループ領域画像ほど大きなみかけ動きベクトル係数を設定することになる。
As described above, when the reference apparent motion vector setting unit 41 determines the group area image in which the
Therefore, since the parallax increases and the apparent motion vector increases as the group region image on the near side of the focus becomes larger than the group region image on the focus, the apparent motion vector
Further, since the parallax increases and the apparent motion vector increases as the group area image on the far side of the focal point, the apparent motion vector
以上で明らかなように、この実施の形態17によれば、基準みかけ動きベクトル設定部41が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定するように構成したので、カメラ1,2が動いたり、ズームインやズームアウトをしても、適正なみかけ動きベクトルを設定することができる効果を奏する。
As apparent from the above, according to the seventeenth embodiment, the reference apparent motion vector setting unit 41 determines the group region image in which the
実施の形態18.
図17はこの発明の実施の形態18によるステレオ画像符号化装置を示す構成図であり、図において、図15と同一符号は同一または相当部分を示すので説明を省略する。
操作情報設定部51はカメラ1,2の操作を示す操作情報を入力して、その操作情報を必要なピクチャ分だけ記憶し、予測参照画像が撮影された時刻の操作情報と、画像A,Bが撮影された時刻の操作情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の操作の変化を捉え、カメラ1,2の操作の変化を示す操作変化情報を出力する。
Embodiment 18 FIG.
FIG. 17 is a block diagram showing a stereo image encoding apparatus according to Embodiment 18 of the present invention. In the figure, the same reference numerals as those in FIG.
The operation
画像変換部52は操作情報設定部51から出力された操作変化情報と動き位置情報設定部11から出力されたカメラ変化情報とに基づいてグルーピング部4によりグループ分けされた各グループ領域画像の画像変換を実施する。
動き予測部53は予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、画像変換部52による画像変換後の各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを出力する。
なお、動き位置情報設定部11、操作情報設定部51、画像変換部52及び動き予測部53から動き予測手段が構成されている。
The
The
The motion position
次に動作について説明する。
動き位置情報設定部11、操作情報設定部51、画像変換部52及び動き予測部53以外は、上記実施の形態1と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を画像変換部52に出力する。
Next, the operation will be described.
Except for the motion position
When the motion position
The motion position
操作情報設定部51は、カメラ1,2の操作を示す操作情報を入力すると、その操作情報を必要なピクチャ分だけ記憶する。即ち、操作情報を入力する毎に、最も古い操作情報の上に最新の操作情報を上書き記録する。
操作情報設定部51は、予測参照画像が撮影された時刻の操作情報と、画像A,Bが撮影された時刻の操作情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の操作の変化を捉え、カメラ1,2の操作の変化を示す操作変化情報を画像変換部52に出力する。
When the operation
The operation
画像変換部52は、動き位置情報設定部11からカメラ変化情報を受け、操作情報設定部51から操作変化情報を受けると、そのカメラ変化情報と操作変化情報に基づいてグルーピング部4から出力される各グループ領域画像の画像変換を実施する。
なお、画像変換部52における画像変換処理の具体例は、下記の実施の形態19以降に記載している。
When the
A specific example of the image conversion processing in the
動き予測部53は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測する。
ただし、動き予測部53は、図1の動き予測部7と異なり、画像変換部52による画像変換後の各グループ領域画像に対応する予測参照画像を探索する。
The
However, unlike the
以上で明らかなように、この実施の形態18によれば、カメラ1,2の動き及び位置を示す動き位置情報と、カメラ1,2の操作を示す操作情報とに基づいて各グループ領域画像の画像変換を実施し、画像変換後の各グループ領域画像の動きを予測するように構成したので、カメラ1,2が操作されても、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As is apparent from the above, according to the eighteenth embodiment, each group region image is based on the movement position information indicating the movement and position of the
実施の形態19.
上記実施の形態18では、操作情報設定部51がカメラ1,2の操作を示す操作情報を入力するものについて示したが、例えば、ズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するようにしてもよい。
例えば、カメラ1,2のズームインが行われた場合には、グループ領域画像が拡大されるため、グループ領域画像が対応する予測参照画像よりも大きくなってしまう。
そこで、画像変換部52は、ズームイン後のグループ領域画像を対応する予測参照画像の画像サイズと合わせるため、グルーピング部4から出力されたグループ領域画像に対して、予測参照画像からの拡大率の逆数を乗じてグループ領域画像を縮小し、縮小後のグループ領域画像を動き予測部53に出力する。
Embodiment 19. FIG.
In the eighteenth embodiment, the operation
For example, when the
In view of this, the
逆に、カメラ1,2のズームアウトが行われた場合には、グループ領域画像が縮小されるため、グループ領域画像が対応する予測参照画像よりも小さくなってしまう。
そこで、画像変換部52は、ズームアウト後のグループ領域画像を対応する予測参照画像の画像サイズと合わせるため、グルーピング部4から出力されたグループ領域画像に対して、予測参照画像からの縮小率の逆数を乗じてグループ領域画像を拡大し、拡大後のグループ領域画像を動き予測部53に出力する。
なお、ズームイン又はズームアウトが行われた場合、視差が変化するので、倍率に応じてグループ領域画像の識別子情報と予測参照画像の識別子情報とを関連付ける。
同じく、焦点位置を変えることにより、視差が変化するので、焦点位置に応じてグループ領域画像の識別子情報と予測参照画像の識別子情報とを関連付ける。
On the contrary, when the
Therefore, the
Note that, when the zoom-in or zoom-out is performed, the parallax changes, so that the identifier information of the group region image and the identifier information of the predicted reference image are associated according to the magnification.
Similarly, since the parallax changes by changing the focal position, the identifier information of the group region image and the identifier information of the predicted reference image are associated according to the focal position.
また、カメラ1,2が回転する場合、カメラ1,2が固定位置で回転するときと、カメラ1,2が移動しながら回転するときとでは、グループ領域画像の画像変換が異なる。
また、カメラ1,2が移動しながら回転する場合でも、焦点が対象に合っているときと、焦点が対象物と別のところにあるときとでは、グループ領域画像の画像変換が異なる。
焦点が対象物と合っている場合は、カメラ1,2の回転角の分だけ、対象物であるグループ領域画像を逆に回転させることで、グループ領域画像に対応する予測参照画像と同じ向きになる。
その他のカメラ1,2の回転については、カメラ1,2の回転角と位置情報に基づいてグループ領域画像の回転角を定める。
When the
Even when the
When the focus is on the object, the group area image that is the object is rotated in reverse by the rotation angle of the
As for the other rotations of the
また、カメラ1,2のパンが行われた場合、カメラ1,2の回転が伴わなければ、画像変換は特に行わず、グループ領域画像をそのまま変換画像とみなして出力する。パンでは、カメラ1,2の移動距離と画面内の移動画素との関係からみなし動きベクトルが求められるので、動き位置情報よりみなし動きベクトルとして動き予測部53に出力することで、動き予測部53では、そのみなし動きベクトルを探索範囲の基準(中心)として、効率のよい動きベクトル探索を行うことができる。
Further, when the
以上で明らかなように、この実施の形態19によれば、操作情報設定部51がズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するように構成したので、カメラ1,2がズームイン、ズームアウト、パン、回転、焦点位置などの操作が行われても、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。
As apparent from the above, according to the nineteenth embodiment, the operation
なお、この実施の形態19では、操作情報設定部51がズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するものについて示したが、これに限るものではなく、その他の操作情報を入力するようにしてもよい。
また、この実施の形態19では、画像変換部52がグループ領域画像を回転、拡大又は縮小の画像変換を行うものについて示したが、これに限るものではなく、その他の画像変換を行うようにしてもよい。
また、この実施の形態19では、操作情報が回転である場合、画像変換部52がグループ領域画像を回転するものについて示したが、画像変換部52がグループ領域画像を回転する際、グループ領域画像の見えていない部分(例えば、グループ領域画像の側面)の画像を用いて、グループ領域画像を補間するようにしてもよい。
この場合、別のカメラにより撮像された画像(例えば、グループ領域画像の側面)を用いて、グループ領域画像を補間してもよいし、予めデータベースに記憶されている画像(例えば、グループ領域画像の側面)を用いて、グループ領域画像を補間してもよい。
In the nineteenth embodiment, the operation
In the nineteenth embodiment, the
Further, in the nineteenth embodiment, when the operation information is rotation, the
In this case, the group region image may be interpolated using an image captured by another camera (for example, the side surface of the group region image), or an image stored in the database in advance (for example, the group region image) The group area image may be interpolated using the side surface.
実施の形態20.
上記実施の形態18,19では、画像変換部52がグループ領域画像の画像変換を実施するものについて示したが、予測参照画像メモリ6に格納されている予測参照画像(グループ領域画像に対応する予測参照画像)の画像変換を実施して、グループ領域画像と予測参照画像の画像サイズを合わせるようにしてもよく、上記実施の形態18,19と同様の効果を奏することができる。
Embodiment 20. FIG.
In the above eighteenth and nineteenth embodiments, the
なお、画像変換部52が予測参照画像を回転する場合、予測参照画像の見えていない部分(例えば、予測参照画像の側面)の画像を用いて、予測参照画像を補間するようにしてもよい。
この場合、別のカメラにより撮像された画像(例えば、予測参照画像の側面)を用いて、予測参照画像を補間してもよいし、予めデータベースに記憶されている画像(例えば、予測参照画像の側面)を用いて、予測参照画像を補間してもよい。
When the
In this case, the prediction reference image may be interpolated using an image captured by another camera (for example, a side surface of the prediction reference image), or an image stored in the database in advance (for example, the prediction reference image of the prediction reference image). The prediction reference image may be interpolated using the side surface.
実施の形態21.
図18はこの発明の実施の形態21によるステレオ画像符号化装置を示す構成図であり、図において、図17と同一符号は同一または相当部分を示すので説明を省略する。
符号化部61は図1の符号化部8と同様の符号化処理を実施するほか、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)及び画像変換部52による画像変換を示す画像変換情報を符号化する。なお、符号化部61は符号化手段を構成している。
FIG. 18 is a block diagram showing a stereo image coding apparatus according to
The
上記実施の形態1〜20では、符号化部8が画像A,Bに含まれているグループ領域画像と予測参照画像の差分画像を求め、その差分画像と動きベクトルを符号化するものについて示したが、この実施の形態21では、符号化部61が画像変換部52による画像変換後のグループ領域画像と予測参照画像の差分画像を求め、その差分画像と動きベクトルを符号化するようにする。
また、符号化部61は、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)、及び画像変換部52による画像変換を示す画像変換情報についても符号化する。
In
The
以上で明らかなように、この実施の形態21によれば、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)及び画像変換部52による画像変換を示す画像変換情報を符号化するように構成したので、カメラ1,2が操作されて、グループ領域画像の画像変換が行われた場合でも、実際の動きに近い動き補償予測符号化を実現することができる効果を奏する。
As is apparent from the above, according to the twenty-first embodiment, the camera change information (or camera movement position information) output from the movement position
なお、この実施の形態21では、符号化部61が画像変換情報を符号化するものについて示したが、画像変換部52がグループ領域画像の画像変換を行わない場合には、その画像変換情報を符号化する必要はない。
In
実施の形態22.
上記実施の形態1〜21では、特に言及していないが、符号化部8(または符号化部61)が画像A,Bの符号化を行う際、画像A,Bに含まれているグループ領域画像をブロック単位に分割して、ブロック毎に符号化を実施するようにしてもよい。
この際、画像A,Bに含まれているグループ領域画像が複数存在しているブロックについては、複数のグループ領域画像の属性を考慮して符号化を実施するようにする。
具体的には、以下の通りである。
Although not particularly mentioned in
At this time, for blocks in which a plurality of group area images included in the images A and B exist, encoding is performed in consideration of the attributes of the plurality of group area images.
Specifically, it is as follows.
この実施の形態22では、画像A,Bに含まれているグループ領域画像を8×8画素のブロックに分割し、ブロック毎に符号化を実施するものとする。
上記実施の形態4では、図9(a)に示すように、グループ領域画像の境界を含むブロックも含めて代表動きベクトルを求めているが、この実施の形態22では、あるブロック内に複数のグループ領域画像が存在している場合、複数のグループ領域画像の属性を考慮して符号化を実施する。
図9(a)の例では、図中、灰色の領域と白色の領域を含むブロックについては、灰色の領域の属性と、白色の領域の属性とに基づいて符号化を制御する。
これは、ブロック内が全て灰色の領域と、ブロック内が全て白色の領域と、ブロック内が灰色と白色が混在する領域のそれぞれについて、個別に符号化制御を行わせるようにするためである。
In the twenty-second embodiment, the group area images included in the images A and B are divided into 8 × 8 pixel blocks, and encoding is performed for each block.
In the fourth embodiment, as shown in FIG. 9A, the representative motion vector is obtained including the block including the boundary of the group area image. However, in the twenty-second embodiment, a plurality of blocks are included in a certain block. When group area images exist, encoding is performed in consideration of attributes of a plurality of group area images.
In the example of FIG. 9A, for the block including the gray area and the white area in the drawing, the encoding is controlled based on the attribute of the gray area and the attribute of the white area.
This is because the coding control is individually performed for each of the gray area in the block, the white area in the block, and the gray and white area in the block.
以上で明らかなように、この実施の形態22によれば、画像A,Bに含まれているグループ領域画像が複数存在しているブロックについては、複数のグループ領域画像の属性を考慮して符号化を実施するように構成したので、属性が異なる領域について個別に符号化制御を行わせることができるようになり、その結果、目的に応じた符号化制御が可能になる効果を奏する。即ち、注目領域については、ブロック内が全て注目領域の画像の場合、多く符号化情報量を割り当て、注目領域と注目領域でない画像がブロック内に混在する場合は、全て注目領域の画像の場合と比べて割り当てる符号化情報量を減らし、全て注目領域の画像でない場合は、少なく符号化情報量を割り当てるようにすることなどが可能になる。 As is apparent from the above, according to the twenty-second embodiment, a block in which a plurality of group area images are included in the images A and B is coded in consideration of the attributes of the plurality of group area images. Therefore, it is possible to individually perform coding control for regions having different attributes, and as a result, it is possible to perform coding control according to the purpose. That is, with respect to the attention area, when all the images in the block are the attention area images, a large amount of encoding information is allocated, and when the attention area and the image that is not the attention area are mixed in the block, In comparison, the amount of encoded information to be allocated is reduced, and when all the images are not in the region of interest, it is possible to allocate a small amount of encoded information.
この実施の形態22では、画像A,Bに含まれているグループ領域画像を8×8画素のブロックに分割するものについて示したが、分割画素数は任意でよく、また、動き予測用のブロックサイズと符号化用のブロックサイズが異なっていてもよい。
また、この実施の形態22では、注目領域については、ブロック内が全て注目領域の画像の場合、多く符号化情報量を割り当て、注目領域と注目領域でない画像がブロック内に混在する場合は、全て注目領域の画像の場合と比べて割り当てる符号化情報量を減らし、全て注目領域の画像でない場合は、少なく符号化情報量を割り当てることができる旨を述べたが、符号化ブロックに対する符号化情報量の割り当ては任意でよい。
In the twenty-second embodiment, the group area image included in the images A and B is divided into 8 × 8 pixel blocks. However, the number of divided pixels may be arbitrary, and the motion prediction block The size and the block size for encoding may be different.
In the twenty-second embodiment, for the attention area, if the entire block is an image of the attention area, a large amount of encoding information is allocated, and if the attention area and the image that is not the attention area are mixed in the block, all The amount of encoding information to be allocated is reduced compared to the case of the image of the attention area, and if all the images of the attention area are not described, it is described that the amount of encoding information can be allocated. The assignment of may be arbitrary.
なお、グループ領域画像の属性としては、例えば、ブロック内の面積を使用することができる。また、グループ領域画像の属性は、視差、特性情報、ブロック内の識別子に対応するグループ領域画像の面積の中央値又は視差の中央値などでもよい。また、焦点が合うグループ領域画像との奥行方向の位置関係でもよい。
グループ領域画像の属性は、ブロック内の識別子に対応する各グループの面積に基づいて重み付け係数を決め、その重み付け係数の平均値又は重み付け係数の2乗平均値の平方根に最も近い重み付け係数に対応するグループ領域画像の属性でもよい。
As an attribute of the group region image, for example, an area in the block can be used. Further, the attribute of the group area image may be parallax, characteristic information, the median value of the area of the group area image corresponding to the identifier in the block, or the median value of parallax. Further, it may be a positional relationship in the depth direction with the group area image that is in focus.
The attribute of the group region image determines the weighting coefficient based on the area of each group corresponding to the identifier in the block, and corresponds to the weighting coefficient closest to the average value of the weighting coefficient or the square root of the squared average value of the weighting coefficient. It may be an attribute of a group area image.
1,2 カメラ、3 視差算出部(視差算出手段)、4 グルーピング部(グルーピング手段、特性抽出手段)、5 識別子情報付加部、6 予測参照画像メモリ、7,13,23,32,43,53 動き予測部(動き予測手段)、8,61 符号化部(符号化手段)、11 動き位置情報設定部(動き予測手段)、12 探索範囲制御部(動き予測手段)、21 基準探索範囲設定部(動き予測手段)、22 探索範囲係数設定部(動き予測手段)、31 みかけ動きベクトル制御部(動き予測手段)、41 基準みかけ動きベクトル設定部(動き予測手段)、42 みかけ動きベクトル係数設定部(動き予測手段)、51 操作情報設定部(動き予測手段)、52 画像変換部(動き予測手段)。 1, 2 cameras, 3 parallax calculation unit (parallax calculation unit), 4 grouping unit (grouping unit, characteristic extraction unit), 5 identifier information addition unit, 6 prediction reference image memory, 7, 13, 23, 32, 43, 53 Motion prediction unit (motion prediction unit), 8, 61 encoding unit (encoding unit), 11 motion position information setting unit (motion prediction unit), 12 search range control unit (motion prediction unit), 21 reference search range setting unit (Motion prediction means), 22 search range coefficient setting section (motion prediction means), 31 apparent motion vector control section (motion prediction means), 41 reference apparent motion vector setting section (motion prediction means), 42 apparent motion vector coefficient setting section (Motion prediction means), 51 operation information setting section (motion prediction means), 52 image conversion section (motion prediction means).
Claims (26)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006355906A JP4660463B2 (en) | 2006-12-28 | 2006-12-28 | Stereo image encoding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006355906A JP4660463B2 (en) | 2006-12-28 | 2006-12-28 | Stereo image encoding device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008167267A true JP2008167267A (en) | 2008-07-17 |
JP4660463B2 JP4660463B2 (en) | 2011-03-30 |
Family
ID=39696075
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006355906A Expired - Fee Related JP4660463B2 (en) | 2006-12-28 | 2006-12-28 | Stereo image encoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4660463B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011061973A1 (en) * | 2009-11-18 | 2011-05-26 | 日本ビクター株式会社 | Three-dimensional image display device and method of deriving motion vector |
JP2011528889A (en) * | 2008-07-20 | 2011-11-24 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | Encoder optimization of stereoscopic video distribution system |
JP2012257198A (en) * | 2011-05-17 | 2012-12-27 | Canon Inc | Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09275578A (en) * | 1996-04-04 | 1997-10-21 | Sharp Corp | Multi-viewpoint encoding and decoding device |
JP2000165909A (en) * | 1998-11-26 | 2000-06-16 | Sanyo Electric Co Ltd | Method and device for image compressing processing |
JP2001285895A (en) * | 2000-03-30 | 2001-10-12 | Sanyo Electric Co Ltd | Image data coder and its method |
JP2003304562A (en) * | 2002-04-10 | 2003-10-24 | Victor Co Of Japan Ltd | Object encoding method, object encoder, and program for object encoding |
JP2005323021A (en) * | 2004-05-07 | 2005-11-17 | Fuji Photo Film Co Ltd | In-vehicle imaging system and imaging method |
JP2006053692A (en) * | 2004-08-10 | 2006-02-23 | Riyuukoku Univ | Image processor, image processing method and image processing program in moving image, and recording medium recording the program |
JP2006518157A (en) * | 2003-02-17 | 2006-08-03 | エックスヴイディー コーポレイション | Method and apparatus for object-based motion compensation |
JP2006259847A (en) * | 2005-03-15 | 2006-09-28 | Matsushita Electric Ind Co Ltd | Automatic tracking device and automatic tracking method |
-
2006
- 2006-12-28 JP JP2006355906A patent/JP4660463B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09275578A (en) * | 1996-04-04 | 1997-10-21 | Sharp Corp | Multi-viewpoint encoding and decoding device |
JP2000165909A (en) * | 1998-11-26 | 2000-06-16 | Sanyo Electric Co Ltd | Method and device for image compressing processing |
JP2001285895A (en) * | 2000-03-30 | 2001-10-12 | Sanyo Electric Co Ltd | Image data coder and its method |
JP2003304562A (en) * | 2002-04-10 | 2003-10-24 | Victor Co Of Japan Ltd | Object encoding method, object encoder, and program for object encoding |
JP2006518157A (en) * | 2003-02-17 | 2006-08-03 | エックスヴイディー コーポレイション | Method and apparatus for object-based motion compensation |
JP2005323021A (en) * | 2004-05-07 | 2005-11-17 | Fuji Photo Film Co Ltd | In-vehicle imaging system and imaging method |
JP2006053692A (en) * | 2004-08-10 | 2006-02-23 | Riyuukoku Univ | Image processor, image processing method and image processing program in moving image, and recording medium recording the program |
JP2006259847A (en) * | 2005-03-15 | 2006-09-28 | Matsushita Electric Ind Co Ltd | Automatic tracking device and automatic tracking method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011528889A (en) * | 2008-07-20 | 2011-11-24 | ドルビー・ラボラトリーズ・ライセンシング・コーポレーション | Encoder optimization of stereoscopic video distribution system |
US8885721B2 (en) | 2008-07-20 | 2014-11-11 | Dolby Laboratories Licensing Corporation | Encoder optimization of stereoscopic video delivery systems |
WO2011061973A1 (en) * | 2009-11-18 | 2011-05-26 | 日本ビクター株式会社 | Three-dimensional image display device and method of deriving motion vector |
KR101253495B1 (en) * | 2009-11-18 | 2013-04-11 | 닛뽕빅터 가부시키가이샤 | Three-dimensional image display device and method of deriving motion vector |
JP2012257198A (en) * | 2011-05-17 | 2012-12-27 | Canon Inc | Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus |
US8983217B2 (en) | 2011-05-17 | 2015-03-17 | Canon Kabushiki Kaisha | Stereo image encoding apparatus, its method, and image pickup apparatus having stereo image encoding apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP4660463B2 (en) | 2011-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9109891B2 (en) | Stereo camera | |
JP6371553B2 (en) | Video display device and video display system | |
US9299152B2 (en) | Systems and methods for image depth map generation | |
WO2012086120A1 (en) | Image processing apparatus, image pickup apparatus, image processing method, and program | |
CN114245905A (en) | Depth aware photo editing | |
JP4658223B2 (en) | Image generating method, apparatus, program thereof, and recording medium recording program | |
WO2011014419A1 (en) | Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene | |
JP2015522987A (en) | Motion information estimation, coding and decoding in multi-dimensional signals by motion region and auxiliary information by auxiliary region | |
CN110945868B (en) | Apparatus and method for generating a tiled three-dimensional image representation of a scene | |
WO2019124248A1 (en) | Image processing device, content processing device, content processing system, and image processing method | |
KR20200102507A (en) | Apparatus and method for generating image data bitstream | |
WO2019050038A1 (en) | Image generation method and image generation device | |
JP4660463B2 (en) | Stereo image encoding device | |
JP2013223008A (en) | Image processing device and method | |
US8908012B2 (en) | Electronic device and method for creating three-dimensional image | |
JP2015171097A (en) | Image processing apparatus and control method thereof | |
JP2017207818A (en) | Image processing apparatus, image processing method and program | |
JP2008022421A (en) | Multi-viewpoint image compression encoding method, apparatus and program | |
JP6057629B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP2013150071A (en) | Encoder, encoding method, program and storage medium | |
JP2014164497A (en) | Information processor, image processing method and program | |
JP6351364B2 (en) | Information processing apparatus, information processing method, and program | |
JP2020194400A (en) | Image processing apparatus, image processing method, and program | |
JP2015220662A (en) | Information processing apparatus, method for the same, and program | |
WO2017094241A1 (en) | Display processing apparatus, display processing method, and computer-readable medium for executing display processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080704 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090917 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101228 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140107 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |