JP2008167267A - Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program - Google Patents

Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program Download PDF

Info

Publication number
JP2008167267A
JP2008167267A JP2006355906A JP2006355906A JP2008167267A JP 2008167267 A JP2008167267 A JP 2008167267A JP 2006355906 A JP2006355906 A JP 2006355906A JP 2006355906 A JP2006355906 A JP 2006355906A JP 2008167267 A JP2008167267 A JP 2008167267A
Authority
JP
Japan
Prior art keywords
image
motion
unit
prediction
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006355906A
Other languages
Japanese (ja)
Other versions
JP4660463B2 (en
Inventor
Toshiaki Shimada
敏明 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006355906A priority Critical patent/JP4660463B2/en
Publication of JP2008167267A publication Critical patent/JP2008167267A/en
Application granted granted Critical
Publication of JP4660463B2 publication Critical patent/JP4660463B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a stereo image encoding apparatus, stereo image encoding method and stereo image encoding program in which motion compensation prediction encoding close to actual motion is achieved to improve precision in encoding a plurality of images. <P>SOLUTION: The stereo image encoding apparatus comprises: a grouping unit 4 for implementing grouping of regions within a screen in accordance with a parallax calculated by a parallax calculation unit 3 and for extracting characteristics of the grouped regions; and a motion prediction unit 7 for predicting motions of the respective regions grouped by the grouping unit 4, in consideration of characteristics extracted by the grouping unit 4, then an encoding unit 8 uses motion prediction results of the regions by the motion prediction unit 7 to encode images A, B. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、同一時刻に撮影された複数の画像(ステレオ画像)を符号化するステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラムに関するものである。   The present invention relates to a stereo image encoding device, a stereo image encoding method, and a stereo image encoding program for encoding a plurality of images (stereo images) taken at the same time.

従来のステレオ画像符号化装置は、視差のない背景画像と視差のある立体部品画像を入力する。
ただし、視差のない背景画像と視差のある立体部品画像は、いずれも動画像であり、また、立体部品画像は、2台のカメラを平行に配置して撮影されたステレオ画像の中から、注視物体だけが切り出されたものであり、画像の視差は水平成分のみを有している。
A conventional stereo image encoding apparatus inputs a background image without parallax and a three-dimensional component image with parallax.
However, the background image without parallax and the 3D component image with parallax are both moving images, and the 3D component image is a gaze from a stereo image taken by arranging two cameras in parallel. Only the object is cut out, and the parallax of the image has only a horizontal component.

ステレオ画像符号化装置は、背景画像と立体部品画像を入力すると、背景画像と立体部品画像の符号化を実施する。
背景画像の符号化は、一般的に知られている16×16画素等からなるブロックを符号化単位として、ブロックマッチングを実施する動き補償予測符号化を行うことで実施される。
立体部品画像の符号化は、左目用の部品画像については、一般的に知られているブロックマッチングを用いる動き補償予測符号化を行うことで符号化される。
右目用の部品画像については、同時刻の左目用画像を用いる視差補償を行うことで符号化される。
なお、従来のステレオ画像符号化装置における動き補償は、上述したように、ブロックマッチングを実施する動き補償予測符号化が行われるが、部品画像の特徴や特性によって動き補償予測符号化が制御されるものではない(例えば、特許文献1を参照)。
When the stereo image encoding device receives the background image and the three-dimensional component image, the stereo image encoding device encodes the background image and the three-dimensional component image.
The background image is encoded by performing motion compensation predictive encoding that performs block matching using a generally known block of 16 × 16 pixels or the like as an encoding unit.
In the encoding of the three-dimensional component image, the component image for the left eye is encoded by performing motion compensation prediction encoding using generally known block matching.
The right-eye component image is encoded by performing parallax compensation using the left-eye image at the same time.
Note that, as described above, motion compensation prediction coding in which block matching is performed is performed in motion compensation in a conventional stereo image coding device, but motion compensation prediction coding is controlled according to the characteristics and characteristics of component images. It is not a thing (for example, refer patent document 1).

特開平09−275578号公報(段落番号[0021]から[0037]、図1)JP 09-275578 A (paragraph numbers [0021] to [0037], FIG. 1)

従来のステレオ画像符号化装置は以上のように構成されているので、左目用の部品画像がブロックマッチングを用いる動き補償予測符号化を行うことで符号化されるが、部品画像の特徴や特性によって動き補償予測符号化が制御されるものではないため、部品画像の実際の動きと離れた動き補償予測符号化が行われることがあり、部品画像の符号化精度が劣化することがあるなどの課題があった。   Since the conventional stereo image encoding apparatus is configured as described above, the component image for the left eye is encoded by performing motion compensation prediction encoding using block matching, but depending on the characteristics and characteristics of the component image Since motion compensation predictive coding is not controlled, problems such as motion compensated predictive coding away from the actual motion of the component image may be performed, and the coding accuracy of the component image may deteriorate. was there.

この発明は上記のような課題を解決するためになされたもので、実際の動きに近い動き補償予測符号化を実現して、複数の画像の符号化精度を高めることができるステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラムを得ることを目的とする。   The present invention has been made in order to solve the above-described problems, and realizes a motion compensated predictive coding close to an actual motion and can improve the coding accuracy of a plurality of images. An object is to obtain a stereo image encoding method and a stereo image encoding program.

この発明に係るステレオ画像符号化装置は、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段とを設け、符号化手段が動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行うようにしたものである。   The stereo image encoding apparatus according to the present invention includes a grouping unit that groups areas in a screen according to the parallax calculated by the parallax calculating unit, and a characteristic extraction that extracts characteristics of each region grouped by the grouping unit And a motion prediction means for predicting the motion of each area grouped by the grouping means in consideration of the characteristics extracted by the characteristic extraction means, and the encoding means predicts the motion of each area by the motion prediction means. A plurality of images are encoded using the result.

この発明によれば、視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段とを設け、符号化手段が動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行うように構成したので、実際の動きに近い動き補償予測符号化が実現されるようになり、その結果、複数の画像の符号化精度を高めることができる効果がある。   According to this invention, the grouping means for grouping the areas in the screen according to the parallax calculated by the parallax calculation means, the characteristic extraction means for extracting the characteristics of each area grouped by the grouping means, and the characteristic extraction In consideration of the characteristics extracted by the means, a motion prediction means for predicting the motion of each area grouped by the grouping means is provided, and the encoding means uses the motion prediction result of each area by the motion prediction means, Since the configuration is such that a plurality of images are encoded, motion compensated predictive encoding close to the actual motion can be realized, and as a result, there is an effect that the encoding accuracy of the plurality of images can be improved. .

実施の形態1.
図1はこの発明の実施の形態1によるステレオ画像符号化装置を示す構成図であり、図において、カメラ1は三次元空間内の対象物を撮影し、その撮影結果である画像Aを出力する。
カメラ2はカメラ1と異なる位置に設置され、カメラ1と同一時刻に同一の対象物を撮影し、その撮影結果である画像Bを出力する。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a stereo image coding apparatus according to Embodiment 1 of the present invention. In FIG. 1, a camera 1 captures an object in a three-dimensional space and outputs an image A that is the capturing result. .
The camera 2 is installed at a position different from that of the camera 1, images the same object at the same time as the camera 1, and outputs an image B that is a result of the imaging.

視差算出部3はカメラ1から出力された画像Aとカメラ2から出力された画像Bを入力し、画像Aと画像Bにおける画面内の視差を算出する処理を実施する。なお、視差算出部3は視差算出手段を構成している。
グルーピング部4は視差算出部3により算出された視差に応じて画面内の領域をグループ分けして、グループ分けした各領域の画像(以下、「グループ領域画像」と称する)を出力するグルーピング処理と、各グループ領域画像の特性(例えば、分布状況、大きさ、形状、模様、色)を抽出して、各グループ領域画像の特性を示すグループ領域特性情報を出力する特性抽出処理とを実施する。
なお、グルーピング部4はグルーピング手段及び特性抽出手段を構成している。
The parallax calculation unit 3 inputs the image A output from the camera 1 and the image B output from the camera 2 and performs a process of calculating the in-screen parallax between the images A and B. The parallax calculation unit 3 constitutes parallax calculation means.
The grouping unit 4 groups the regions in the screen according to the parallax calculated by the parallax calculation unit 3 and outputs an image of each grouped region (hereinafter referred to as a “group region image”). Then, a characteristic extraction process for extracting characteristics (for example, distribution status, size, shape, pattern, color) of each group area image and outputting group area characteristic information indicating the characteristics of each group area image is performed.
The grouping unit 4 constitutes grouping means and characteristic extraction means.

識別子情報付加部5はグルーピング部4から出力されたグループ領域特性情報に対応する識別子を動き予測部7に出力する。
予測参照画像メモリ6は画像A,Bと異なる時刻に撮影された予測参照用の画像(以下、「予測参照画像」と称する)を格納しているメモリである。
動き予測部7は予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して(識別子情報付加部5から出力された識別子からグループ領域画像の特性を把握する)、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを出力する。なお、動き予測部7は動き予測手段を構成している。
The identifier information adding unit 5 outputs an identifier corresponding to the group area characteristic information output from the grouping unit 4 to the motion prediction unit 7.
The prediction reference image memory 6 is a memory that stores an image for prediction reference (hereinafter referred to as “prediction reference image”) taken at a different time from the images A and B.
The motion prediction unit 7 considers the characteristics of each group region image from the prediction reference image memory 6 (ascertains the characteristics of the group region image from the identifier output from the identifier information adding unit 5), and each group region image Is searched for, the motion of each group region image is predicted using the predicted reference image, and a motion vector indicating the prediction result is output. The motion prediction unit 7 constitutes motion prediction means.

符号化部8は動き予測部7から出力された動きベクトルを用いて、カメラ1,2から出力された画像A,Bの符号化を実施して、その符号化結果である符号化データを出力する一方、図示せぬエンコーダにより符号化データが復号された局部復号画像を予測参照画像として予測参照画像メモリ6に格納する。なお、符号化部8は符号化手段を構成している。   The encoding unit 8 encodes the images A and B output from the cameras 1 and 2 using the motion vector output from the motion prediction unit 7 and outputs encoded data as the encoding result. On the other hand, a locally decoded image obtained by decoding encoded data by an encoder (not shown) is stored in the predicted reference image memory 6 as a predicted reference image. The encoding unit 8 constitutes an encoding unit.

図1の例では、ステレオ画像符号化装置の構成要素である視差算出部3、グルーピング部4、識別子情報付加部5、動き予測部7及び符号化部8がそれぞれ専用のハードウェア(例えば、MPUを実装している半導体集積回路基板)で構成されているものを想定しているが、ステレオ画像符号化装置がコンピュータで構成されている場合、ステレオ画像符号化装置の構成要素である視差算出部3、グルーピング部4、識別子情報付加部5、動き予測部7及び符号化部8の処理内容を記述しているステレオ画像符号化プログラムをコンピュータのメモリに格納し、コンピュータのCPUが当該メモリに格納されているステレオ画像符号化プログラムを実行するようにしてもよい。   In the example of FIG. 1, the parallax calculation unit 3, the grouping unit 4, the identifier information addition unit 5, the motion prediction unit 7, and the encoding unit 8, which are components of the stereo image encoding device, each have dedicated hardware (for example, MPU In the case where the stereo image encoding device is configured by a computer, a parallax calculation unit that is a component of the stereo image encoding device is assumed. 3, the stereo image encoding program describing the processing contents of the grouping unit 4, the identifier information adding unit 5, the motion prediction unit 7 and the encoding unit 8 is stored in the memory of the computer, and the CPU of the computer stores it in the memory It is also possible to execute a stereo image encoding program.

図2はこの発明の実施の形態1によるステレオ画像符号化方法を示すフローチャートであり、図3はカメラ1,2,により撮影された画像A,Bと画面内の視差を示す説明図である。   FIG. 2 is a flowchart showing a stereo image encoding method according to Embodiment 1 of the present invention, and FIG. 3 is an explanatory diagram showing images A and B taken by the cameras 1 and 2 and parallax in the screen.

次に動作について説明する。
カメラ1,2は、三次元空間内の同一の対象物を同一時刻に撮影すると、その撮影結果である画像A,Bを出力する。
ここで、図3(a)はカメラ1により撮影された画像Aであり、この実施の形態1では、画像Aは左目用画像として使用される。
図3(b)はカメラ2により撮影された画像Bであり、この実施の形態1では、画像Bは右目用画像として使用される。
Next, the operation will be described.
When the cameras 1 and 2 photograph the same object in the three-dimensional space at the same time, the cameras 1 and 2 output images A and B that are the photographing results.
Here, FIG. 3A shows an image A photographed by the camera 1, and in the first embodiment, the image A is used as a left-eye image.
FIG. 3B shows an image B taken by the camera 2. In the first embodiment, the image B is used as a right-eye image.

視差算出部3は、カメラ1から画像Aを入力し、カメラ2から画像Bを入力すると、画像Aと画像Bにおける画面内の視差を算出する(ステップST1)。
図3(c)は画像A,Bにおける画面内の視差を示しており、画像Aと画像B内に存在している2つの対象物を点線で表して、便宜上、視差の画面内に合成している。
画像Aと画像Bにおける画面内の視差は、画像Aと画像Bにおける画面内の対象物のずれを表すものであり、例えば、画像Aを基準にして、画像Bの画面内の対象物のずれを各画素について算出することにより視差を求めることができる。
When the image A is input from the camera 1 and the image B is input from the camera 2, the parallax calculation unit 3 calculates the in-screen parallax between the image A and the image B (step ST1).
FIG. 3C shows the in-screen parallax in the images A and B. Two objects existing in the image A and the image B are represented by dotted lines, and are combined in the parallax screen for convenience. ing.
The parallax in the screens of the images A and B represents the displacement of the objects in the screens of the images A and B. For example, the displacement of the objects in the screen of the image B on the basis of the image A. Can be obtained for each pixel.

図3(c)では、各画素の視差について例示しており、図中の矢印は、視差を表すものである。実際には画素毎に視差を算出するが、図3(c)では、便宜上いくつかを例として表示している。
図3(c)では、背景の視差が一番小さく、楕円状の対象物の視差が一番大きく、方形状の対象物は2番目に視差が大きい。
FIG. 3C illustrates the parallax of each pixel, and an arrow in the figure represents the parallax. Actually, the parallax is calculated for each pixel, but in FIG. 3C, some are displayed as an example for convenience.
In FIG. 3C, the parallax of the background is the smallest, the parallax of the elliptical object is the largest, and the rectangular object has the second largest parallax.

グルーピング部4は、視差算出部3が画像Aと画像Bにおける画面内の視差を算出すると、画像Aと画像Bにおける画面内の視差に応じて画面内の領域のグループ分けを行う(ステップST2)。
即ち、グルーピング部4は、画面内の領域の中で、視差が同値の領域を同一のグループに分類し、同一グループの領域の画像をグループ領域画像として識別子情報付加部5及び動き予測部7に出力する。
図3(a)(b)の例では、楕円状の対象物の領域が同一のグループに分類され、方形状の対象物の領域が同一のグループに分類され、また、背景の領域が同一のグループに分類されるので、グルーピング部4は、図3(a)に示すように、画像Aに含まれている楕円状の対象物に係るグループ領域画像と、方形状の対象物に係るグループ領域画像と、背景に係るグループ領域画像とを出力する。また、図3(b)に示すように、画像Bに含まれている楕円状の対象物に係るグループ領域画像と、方形状の対象物に係るグループ領域画像と、背景に係るグループ領域画像とを出力する。
ここでは、グルーピング部4が、視差が同値の領域を同一のグループに分類するものについて示したが、視差がほぼ同じ領域(任意の範囲の視差を有する領域)を同一のグループに分類するようにしてもよい。
When the parallax calculation unit 3 calculates the in-screen parallax between the images A and B, the grouping unit 4 groups the areas in the screen according to the in-screen parallax between the images A and B (step ST2). .
That is, the grouping unit 4 classifies regions having the same parallax in the region within the screen into the same group, and assigns images of the region of the same group to the identifier information adding unit 5 and the motion prediction unit 7 as group region images. Output.
In the example of FIGS. 3A and 3B, the areas of the elliptical objects are classified into the same group, the areas of the rectangular objects are classified into the same group, and the background area is the same. As shown in FIG. 3A, the grouping unit 4 is classified into groups, and the grouping unit 4 includes a group region image related to the elliptical object included in the image A and a group region related to the rectangular object. An image and a group area image related to the background are output. Further, as shown in FIG. 3B, a group area image related to the elliptical object included in the image B, a group area image related to the rectangular object, and a group area image related to the background, Is output.
Here, the grouping unit 4 has been described for classifying areas having the same parallax into the same group. However, areas having substantially the same parallax (areas having an arbitrary range of parallax) are classified into the same group. May be.

グルーピング部4は、画面内の視差に応じて画面内の領域をグループ分けすると、各グループ領域画像の特性を抽出し、各グループ領域画像の特性を示すグループ領域特性情報を識別子情報付加部5に出力する(ステップST3)。
即ち、グルーピング部4は、各グループ領域画像の特性として、例えば、分布状況、大きさ、形状、模様、色などを抽出する。
グループ領域画像の分布状況は、例えば、画像A,Bのピクチャ(図4の点線で表されている枠)が水平方向と垂直方向にそれぞれ4分割(ピクチャが2次元平面的に16分割)され、グループ領域画像が何れの分割領域に存在しているか表すものであり、4ビットの情報で表される。
When the grouping unit 4 groups the regions in the screen according to the parallax in the screen, the grouping unit 4 extracts the characteristics of each group region image and sends group region characteristic information indicating the characteristics of each group region image to the identifier information adding unit 5. Output (step ST3).
That is, the grouping unit 4 extracts, for example, the distribution status, size, shape, pattern, color, and the like as the characteristics of each group region image.
As for the distribution status of the group area images, for example, the pictures of images A and B (frames represented by dotted lines in FIG. 4) are each divided into four parts in the horizontal direction and the vertical direction (the picture is divided into 16 two-dimensional planes). This indicates in which divided area the group area image exists, and is represented by 4-bit information.

グループ領域画像の大きさは、例えば、グループ領域画像が閾値(面積に関する閾値)によって4つのレベルに分類されたものであり、2ビットの情報で表される。
グループ領域画像の形状は、例えば、グループ領域画像が4種類の形状(三角形、四角形、円形、その他の形状)に分類されたものであり、2ビットの情報で表される。
グループ領域画像の模様は、例えば、グループ領域画像の分散値が閾値によって4種類に分類されたものであり、2ビットの情報で表される。
グループ領域画像の色は、例えば、グループ領域画像が8色に分類されたものであり、3ビットの情報で表される。
The size of the group region image is, for example, a group region image classified into four levels by a threshold value (threshold value related to the area), and is represented by 2-bit information.
The shape of the group area image is, for example, a group area image that is classified into four types of shapes (triangle, quadrangle, circle, and other shapes), and is represented by 2-bit information.
The pattern of the group area image is, for example, one in which the dispersion value of the group area image is classified into four types according to the threshold value, and is represented by 2-bit information.
The color of the group area image is, for example, a group area image classified into 8 colors, and is represented by 3-bit information.

ここでは、グルーピング部4が各グループ領域画像の特性として、例えば、分布状況、大きさ、形状、模様、色などを抽出するものについて示したが、これに限るものではなく、例えば、輝度平均値、最大画素値、最小画素値、画素範囲などを抽出するようにしてもよい。
なお、グループ領域画像の分布状況については、例えば、10分割や20分割など、他の分割数であってもよく、対象物の2次元座標位置でもよい。
また、グループ領域画像の大きさのレベル数は他の数でもよく、形状、模様、色もその他の分類方法でもよい。
Here, the grouping unit 4 has shown the case where, for example, the distribution status, size, shape, pattern, color, and the like are extracted as the characteristics of each group region image. However, the present invention is not limited to this. The maximum pixel value, the minimum pixel value, the pixel range, etc. may be extracted.
In addition, about the distribution condition of a group area | region image, other division numbers, such as 10 divisions and 20 divisions, may be sufficient, for example, and the two-dimensional coordinate position of a target object may be sufficient.
The number of levels of the size of the group area image may be other numbers, and the shape, pattern, and color may be other classification methods.

識別子情報付加部5は、グルーピング部4から各グループ領域画像の特性を示すグループ領域特性情報を受けると、そのグループ領域特性情報に対応する識別子を動き予測部7に出力する(ステップST4)。
即ち、識別子情報付加部5は、動き予測部7が楕円の対象物に係るグループ領域画像(図4(a)を参照)と、方形状の対象物に係るグループ領域画像(図4(b)を参照)と、背景に係るグループ領域画像とを識別して、グループ領域画像を同一の特性又は類似の特性を有するカテゴリーに分類することができるようにするため、例えば、背景に係るグループ領域画像の識別子として「0」、方形状の対象物に係るグループ領域画像の識別子として「10」、楕円状の対象物に係るグループ領域画像の識別子として「20」を設定し、それらの識別子を動き予測部7に出力する。
When the identifier information adding unit 5 receives the group region characteristic information indicating the characteristics of each group region image from the grouping unit 4, the identifier information adding unit 5 outputs an identifier corresponding to the group region characteristic information to the motion prediction unit 7 (step ST4).
That is, the identifier information adding unit 5 includes a group region image (see FIG. 4A) related to the object whose ellipse is the motion prediction unit 7 and a group region image related to the rectangular object (FIG. 4B). And the group area image related to the background, and the group area image can be classified into categories having the same characteristics or similar characteristics. “0” is set as the identifier of the object, “10” is set as the identifier of the group area image related to the rectangular object, and “20” is set as the identifier of the group area image related to the elliptical object. Output to unit 7.

動き予測部7は、識別子情報付加部5からグループ領域特性情報に対応する識別子を受けると、その識別子を参照して、グルーピング部4から出力される各グループ領域画像の特性を把握し、予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、各グループ領域画像に対応する予測参照画像を探索する(ステップST5)。
例えば、グルーピング部4から出力されるグループ領域画像が、方形状の対象物に係るグループ領域画像であれば、識別子「10」から当該グループ領域画像の形状が方形状であると認識し、予測参照画像メモリ6の中から、方形状の予測参照画像を探索する。
When the motion prediction unit 7 receives an identifier corresponding to the group region characteristic information from the identifier information addition unit 5, the motion prediction unit 7 refers to the identifier, grasps the characteristics of each group region image output from the grouping unit 4, and performs prediction reference A prediction reference image corresponding to each group area image is searched from the image memory 6 in consideration of the characteristics of each group area image (step ST5).
For example, if the group region image output from the grouping unit 4 is a group region image related to a rectangular object, the shape of the group region image is recognized as a square from the identifier “10”, and the prediction reference is made. A rectangular prediction reference image is searched from the image memory 6.

動き予測部7は、各グループ領域画像に対応する予測参照画像を探索すると、その予測参照画像を用いて、各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを符号化部8に出力する(ステップST6)。
ここで、動きベクトルは、グループ領域画像と予測参照画像における同位置の画素の差分絶対値を求めて、その領域画像内の差分絶対値の総和(差分絶対値和)を算出し、その差分絶対値和が最小になるときの予測参照画像内の画像領域位置を示すベクトルに相当する。
また、動きベクトルは、画像A,B内のグループ領域画像の位置からの変位に相当し、画像A,B内のグループ領域画像の位置から動きベクトルが指す位置(例えば、領域の左上)にあるピクチャ内の画像領域(予測参照画像メモリ6に格納されているピクチャ(図4の点線枠を参照)内の画像領域)が、グループ領域画像に近い画像領域(グループ領域画像に対応する予測参照画像)に相当する。
When searching for a prediction reference image corresponding to each group region image, the motion prediction unit 7 predicts the motion of each group region image using the prediction reference image, and encodes a motion vector indicating the prediction result. (Step ST6).
Here, the motion vector calculates the absolute difference value of the pixels at the same position in the group region image and the predicted reference image, calculates the sum of the absolute difference values (difference absolute value sum) in the region image, and the difference absolute value This corresponds to a vector indicating the image region position in the predicted reference image when the value sum is minimized.
The motion vector corresponds to a displacement from the position of the group area image in the images A and B, and is located at the position indicated by the motion vector from the position of the group area image in the images A and B (for example, the upper left of the area). An image region in a picture (an image region in a picture (see the dotted frame in FIG. 4) stored in the predicted reference image memory 6) is close to a group region image (a predicted reference image corresponding to the group region image) ).

符号化部8は、動き予測部7から動きベクトルを受けると、その動きベクトルを用いて、カメラ1,2から出力された画像A,Bの符号化を実施し、その符号化結果である符号化データを出力する(ステップST7)。
以下、符号化部8における符号化処理の一例を具体的に説明する。
符号化部8は、動き予測部7から動きベクトルを受けると、カメラ1の画像Aに含まれているグループ領域画像の位置から動きベクトルが指す位置にあるピクチャ内の画像領域(グループ領域画像に対応する予測参照画像)を特定して、そのグループ領域画像と予測参照画像の差分画像を求める。
符号化部8は、画像Aに含まれているグループ領域画像と予測参照画像の差分画像を求めると、その差分画像と動きベクトルを符号化する。
When the encoding unit 8 receives the motion vector from the motion prediction unit 7, the encoding unit 8 encodes the images A and B output from the cameras 1 and 2 using the motion vector, and the encoding result is a code. The converted data is output (step ST7).
Hereinafter, an example of the encoding process in the encoding unit 8 will be specifically described.
When the encoding unit 8 receives the motion vector from the motion prediction unit 7, the encoding unit 8 converts the image region in the picture (in the group region image) from the position of the group region image included in the image A of the camera 1 to the position indicated by the motion vector. A corresponding prediction reference image) is specified, and a difference image between the group region image and the prediction reference image is obtained.
When the encoding unit 8 obtains a difference image between the group region image and the prediction reference image included in the image A, the encoding unit 8 encodes the difference image and the motion vector.

次に、符号化部8は、カメラ2の画像Bに含まれているグループ領域画像の位置から動きベクトルが指す位置にあるピクチャ内の画像領域(グループ領域画像に対応する予測参照画像)を特定して、そのグループ領域画像と予測参照画像の差分画像を求める。
符号化部8は、画像Bに含まれているグループ領域画像と予測参照画像の差分画像を求めると、その差分画像と動きベクトルを符号化する。
符号化部8は、カメラ1,2から出力された画像A,Bの符号化を実施して符号化データを出力すると、後続の画像の符号化に対処できるようにするため、図示せぬエンコーダにより符号化データが復号された局部復号画像を予測参照画像として予測参照画像メモリ6に格納する。
Next, the encoding unit 8 specifies an image region (predicted reference image corresponding to the group region image) in the picture at the position indicated by the motion vector from the position of the group region image included in the image B of the camera 2. Then, a difference image between the group region image and the predicted reference image is obtained.
When the encoding unit 8 obtains a difference image between the group region image and the prediction reference image included in the image B, the encoding unit 8 encodes the difference image and the motion vector.
The encoding unit 8 encodes the images A and B output from the cameras 1 and 2 and outputs encoded data, so that an encoder (not shown) can cope with encoding of subsequent images. The local decoded image in which the encoded data is decoded is stored in the predicted reference image memory 6 as a predicted reference image.

以上で明らかなように、この実施の形態1によれば、視差算出部3により算出された視差に応じて画面内の領域のグループ分けを実施するとともに、グループ分けした各領域の特性を抽出するグルーピング部4と、グルーピング部4により抽出された特性を考慮して、グルーピング部4によりグループ分けされた各領域の動きを予測する動き予測部7とを設け、符号化部8が動き予測部7による各領域の動き予測結果を用いて、画像A,Bの符号化を行うように構成したので、実際の動きに近い動き補償予測符号化が実現されるようになり、その結果、画像A,Bの符号化精度を高めることができる効果を奏する。   As is apparent from the above, according to the first embodiment, the areas in the screen are grouped according to the parallax calculated by the parallax calculation unit 3 and the characteristics of the grouped areas are extracted. The grouping unit 4 and a motion prediction unit 7 that predicts the motion of each region grouped by the grouping unit 4 in consideration of the characteristics extracted by the grouping unit 4 are provided. Since the image A and B are encoded using the motion prediction result of each region according to the above, motion compensated prediction encoding close to the actual motion can be realized. There exists an effect which can improve the encoding precision of B.

また、この実施の形態1によれば、グルーピング部4が各グループ領域画像の特性として、各領域の分布状況、大きさ、形状、模様又は色を抽出するように構成したので、各グループ領域画像を同一の特性又は類似の特性を持つカテゴリーに分けることができるようになり、その結果、動きベクトルの探索効率を高めることができる効果を奏する。   Further, according to the first embodiment, the grouping unit 4 is configured to extract the distribution status, size, shape, pattern, or color of each region as the characteristics of each group region image. Can be divided into categories having the same characteristics or similar characteristics, and as a result, there is an effect that the search efficiency of motion vectors can be improved.

なお、この実施の形態1では、画像Aを左目用画像、画像Bを右目用画像として使用するものについて示したが、画像Aを右目用画像、画像Bを左目用画像として使用するようにしてもよく、また、画像A,Bを何目用画像として固定しなくてもよい。
また、この実施の形態1では、2台のカメラ1,2により撮影された画像A,Bを使用するものについて示したが、3台以上のカメラにより撮影された3種類以上の画像を使用するようにしてもよく、また、3種以上の画像の中から任意の2種の画像を使用するようにしてもよい。
In the first embodiment, the image A is used as the left-eye image and the image B is used as the right-eye image. However, the image A is used as the right-eye image and the image B is used as the left-eye image. In addition, it is not necessary to fix the images A and B as the image for what number.
In the first embodiment, the images A and B photographed by the two cameras 1 and 2 are used. However, three or more kinds of images photographed by three or more cameras are used. Alternatively, any two types of images from among three or more types of images may be used.

この実施の形態1では、視差算出部3が画面内の視差として、画像Aを基準にして、画像Bの画面内の対象物のずれを各画素について算出するものについて示したが、画像A以外の画像を基準画像としてもよく、また、画面内の対象物のずれを画素毎ではなく、複数の画素から構成される画像領域毎に算出するようにしてもよい。   In the first embodiment, the parallax calculation unit 3 calculates the displacement of the target object in the screen of the image B with respect to the image A as the parallax in the screen. The reference image may be used as the reference image, and the shift of the object in the screen may be calculated not for each pixel but for each image region composed of a plurality of pixels.

この実施の形態1では、識別子情報付加部5が、背景に係るグループ領域画像の識別子「0」と、方形状の対象物に係るグループ領域画像の識別子「10」と、楕円状の対象物に係るグループ領域画像の識別子「20」とを設定するものについて示したが、図5に示すように、方形状の対象物に係るグループ領域画像や、楕円状の対象物に係るグループ領域画像が複数存在する場合には、例えば、方形状の対象物に係るグループ領域画像の識別子として「10」と「11」、楕円状の対象物に係るグループ領域画像の識別子として「20」と「21」を設定するようにしてもよい。   In the first embodiment, the identifier information adding unit 5 applies the identifier “0” of the group area image related to the background, the identifier “10” of the group area image related to the rectangular object, and the elliptical object. As shown in FIG. 5, there are a plurality of group region images related to a rectangular object and a plurality of group region images related to an elliptical object. If present, for example, “10” and “11” are used as identifiers for the group region image related to the rectangular object, and “20” and “21” are used as identifiers for the group region image related to the elliptical object. You may make it set.

また、図5に示すように、方形状の対象物に係るグループ領域画像や、楕円状の対象物に係るグループ領域画像が複数存在する場合でも、複数の方形状の対象物に係るグループ領域画像を同一グループとして「10」の識別子を設定し、また、複数の楕円状の対象物に係るグループ領域画像を同一グループとして「20」の識別子を設定するようにしてもよい。   Further, as shown in FIG. 5, even when there are a plurality of group area images related to a rectangular object or a plurality of group area images related to an elliptical object, the group area images related to a plurality of square objects. The identifier of “10” may be set for the same group, and the identifier of “20” may be set for the group region images related to the plurality of elliptical objects as the same group.

実施の形態2.
上記実施の形態1では、動き予測部7が予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、各グループ領域画像に対応する予測参照画像を探索するものについて示したが、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を予め設定された指定領域と各領域が重なる範囲に制御(制限)するようにしてもよい。
Embodiment 2. FIG.
In the first embodiment, the motion prediction unit 7 searches for the prediction reference image corresponding to each group region image from the prediction reference image memory 6 in consideration of the characteristics of each group region image. When the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, the search range of the image may be controlled (restricted) to a range in which each region overlaps with a preset designated region.

即ち、上記実施の形態1では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、図4の点線の枠で表しているピクチャの全てを画像の探索範囲としているものについて示したが、この実施の形態2では、図6に示すように、予め、例えば、方形やひし形状の領域(以下、「指定領域」と称する)を設定し(図6の一点破線の枠を参照)、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を当該指定領域とグループ領域画像が重なる範囲に制御するようにしてもよい。
動き予測部7は、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御する場合、指定領域とグループ領域画像が重なる範囲の外の領域が探索領域から除外され、その重なる範囲だけが探索領域となるため、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる。
That is, in the first embodiment, when the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, all of the pictures represented by the dotted frame in FIG. 4 are used as the image search range. In the second embodiment, as shown in FIG. 6, for example, a square or rhombus-shaped region (hereinafter referred to as “designated region”) is set in advance (see a one-dot broken line frame in FIG. 6). When the motion prediction unit 7 searches for a prediction reference image corresponding to each group area image, the search range of the image may be controlled to a range where the designated area and the group area image overlap.
When the motion prediction unit 7 controls the search range of the image to a range where the designated region and the group region image overlap, an area outside the range where the designated region and the group region image overlap is excluded from the search region, and only the overlapping range is included. Since it becomes a search area, the search efficiency (search efficiency of a motion vector) of the prediction reference picture corresponding to each group field picture can be raised.

したがって、この実施の形態2の場合、例えば、グループ領域画像が点光源などの1点画素であれば、対象となる1点の画素のみについて、動きベクトルの探索を行うことになる。
この実施の形態2では、一般的に知られているブロック単位のベクトル探索に限る必要はなく、1点光源や任意形状のオブジェクト探索でもよい。
Therefore, in the case of the second embodiment, for example, if the group region image is a single point pixel such as a point light source, the motion vector is searched for only one target pixel.
In the second embodiment, it is not necessary to limit to a generally known block unit vector search, and a one-point light source or an arbitrarily shaped object search may be used.

実施の形態3.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合、図7に示すように、グループ領域画像の形状や画面内位置によっては、画像ブロックがグループ領域画像の境界を跨ぐことがあり得る。
Embodiment 3 FIG.
In Embodiment 2 described above, when the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, the search range of the image is controlled to a range in which the designated region and the group region image overlap. When motion prediction (motion vector search) is performed in units of image blocks, as shown in FIG. 7, depending on the shape of the group area image and the position in the screen, the image block may straddle the boundary of the group area image. obtain.

そこで、この実施の形態3では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御(制限)するようにする。
即ち、指定領域とグループ領域画像が重なる部分を一部に含む画像ブロックについても、動きベクトルの探索対象に含めるようにする。
動き予測部7は、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御し、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合、画像ブロック毎に予測評価値を求め、最小評価値に対応する動きベクトルを出力することになる。
ここでは、画像ブロック毎に予測評価値を求め、最小評価値に対応する動きベクトルを出力するものについて示したが、予測評価値は、一般的に用いられる差分絶対値和などでもよく、また、閾値以下の評価値に対応する動きベクトルを出力するようにしてもよい。
Therefore, in the third embodiment, when the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, the search range of the image is controlled (limited) to a range including a portion where the designated region and the group region image overlap. )
That is, an image block that partially includes a portion where the designated area and the group area image overlap is also included in the motion vector search target.
The motion prediction unit 7 controls the image search range to a range including a portion where the designated region and the group region image overlap, and performs motion prediction (motion vector search) in units of image blocks. An evaluation value is obtained and a motion vector corresponding to the minimum evaluation value is output.
Here, the prediction evaluation value is obtained for each image block, and the motion vector corresponding to the minimum evaluation value is output, but the prediction evaluation value may be a generally used difference absolute value sum, You may make it output the motion vector corresponding to the evaluation value below a threshold value.

以上で明らかなように、この実施の形態3によれば、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる部分を含む範囲に制御するように構成したので、画像のブロック単位で動き予測(動きベクトルの探索)を実施する場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the third embodiment, when the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, a portion where the designated region and the group region image overlap the search range of the image. Therefore, even when motion prediction (motion vector search) is performed in units of image blocks, the search efficiency of the prediction reference image corresponding to each group region image (motion vector search efficiency) ) Can be enhanced.

実施の形態4.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、動き予測部7が各グループ領域画像の代表動きベクトルを求め、画像の探索範囲を代表動きベクトルを基準とする範囲に制御(制限)するようにしてもよい。
Embodiment 4 FIG.
In Embodiment 2 described above, when the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, the search range of the image is controlled to a range in which the designated region and the group region image overlap. The motion prediction unit 7 may obtain a representative motion vector of each group region image, and control (limit) the image search range to a range based on the representative motion vector.

図8は代表動きベクトルを説明する説明図である。
動き予測部7は、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像メモリ6に格納されている予測参照画像の中で、各グループ領域画像の差分絶対値和が最小になるベクトルを代表動きベクトルとして求める。
図8の例では、方形状の対象物に係るグループ領域画像の代表動きベクトルと、楕円状の対象物に係るグループ領域画像の代表動きベクトルを求めている。
FIG. 8 is an explanatory diagram for explaining a representative motion vector.
When the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, the sum of absolute differences of each group region image is minimized among the prediction reference images stored in the prediction reference image memory 6. As a representative motion vector.
In the example of FIG. 8, the representative motion vector of the group region image related to the rectangular object and the representative motion vector of the group region image related to the elliptical object are obtained.

動き予測部7は、各グループ領域画像の代表動きベクトルを求めると、画像の探索範囲を代表動きベクトルを基準とする範囲に制御して(一点破線の枠を参照)、各グループ領域画像に対応する予測参照画像を探索(動きベクトルを探索)する。
即ち、動き予測部7は、各グループ領域画像を複数の領域に分割し、分割領域毎に動きベクトルの探索を行う。
このとき、0原点を基準にする代わりに、代表動きベクトルを基準(中心)にする探索範囲で動きベクトルの探索を行う。即ち、代表動きベクトルを0原点にオフセットとして加算し、その加算点を基準点とする探索範囲で動きベクトルの探索を行う。
When the motion prediction unit 7 obtains the representative motion vector of each group region image, the motion prediction unit 7 controls the search range of the image to a range based on the representative motion vector (see the dashed line frame), and corresponds to each group region image. The predicted reference image to be searched is searched (motion vector is searched).
That is, the motion prediction unit 7 divides each group region image into a plurality of regions, and searches for a motion vector for each divided region.
At this time, instead of using the zero origin as a reference, the motion vector is searched in a search range using the representative motion vector as a reference (center). That is, the representative motion vector is added as an offset to the zero origin, and the motion vector is searched in the search range using the addition point as a reference point.

以上で明らかなように、この実施の形態4によれば、動き予測部7が各グループ領域画像の代表動きベクトルを求め、画像の探索範囲を代表動きベクトルを基準とする範囲に制御するように構成したので、各グループ領域画像の近傍で予測参照画像の探索(動きベクトルの探索)を行うことができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As apparent from the above, according to the fourth embodiment, the motion prediction unit 7 obtains the representative motion vector of each group region image, and controls the image search range to a range based on the representative motion vector. Since it is configured, it is possible to search for a predicted reference image (search for a motion vector) in the vicinity of each group region image, and as a result, search efficiency (motion vector) of a predicted reference image corresponding to each group region image. The search efficiency is improved.

なお、この実施の形態4では、動き予測部7が、予測参照画像メモリ6に格納されている予測参照画像の中で、各グループ領域画像の差分絶対値和が最小になるベクトルを代表動きベクトルとして求めるものについて示したが、周辺画像を含めず、グループ領域画像そのものに対して、予測参照画像内で代表動きベクトルを求めてもよい。
また、図9(a)に示すように、グループ領域画像を含む幾つかの正方ブロックからなる領域(四隅にある点線の正方ブロックの領域は含めても、含めなくてもよい)に対して、予測参照画像内で代表動きベクトルを求めてもよい。
また、図9(b)に示すように、グループ領域画像を方形領域に対して、予測参照画像内で代表動きベクトルを求めてもよく、代表動きベクトルを求める際のグループ領域画像に対するマッチング領域は任意でよい。
In the fourth embodiment, the motion prediction unit 7 uses a representative motion vector as a representative motion vector, among the prediction reference images stored in the prediction reference image memory 6, for which the sum of absolute differences of the group region images is minimized. However, the representative motion vector may be obtained in the predicted reference image for the group region image itself without including the surrounding image.
Further, as shown in FIG. 9A, for an area composed of several square blocks including a group area image (the area of dotted square blocks at the four corners may or may not be included) The representative motion vector may be obtained in the predicted reference image.
Further, as shown in FIG. 9B, a representative motion vector may be obtained in a predicted reference image with respect to a square region of a group region image, and a matching region for the group region image when the representative motion vector is obtained is Optional.

さらに、代表動きベクトルを求める際、グループ領域画像内の画素又はグループ領域画像の近傍まで含めた対象領域の画素を用いて、代表動きベクトルを求めるとき、対象領域の全ての画素を用いて、代表動きベクトルの探索を行ってもよい。また、対象領域内の画素をサブサンプリングし、サブサンプリングされた画素を用いて、代表動きベクトルの探索を行ってもよく、対象領域の輝度成分のみを用いて、代表動きベクトルの探索を行ってもよい。また、対象領域の輝度成分及び色差成分を用いて、代表動きベクトルの探索を行ってもよく、対象領域の画素の取扱は任意でよい。   Further, when obtaining the representative motion vector, when obtaining the representative motion vector using the pixels in the group area image or the pixels in the target area including the vicinity of the group area image, the representative motion vector is obtained using all the pixels in the target area. A motion vector search may be performed. Alternatively, subpixels in the target area may be subsampled, and the representative motion vector may be searched using the subsampled pixels, or the representative motion vector may be searched using only the luminance component of the target area. Also good. In addition, the representative motion vector may be searched using the luminance component and the color difference component of the target region, and the handling of the pixels of the target region may be arbitrary.

実施の形態5.
図10はこの発明の実施の形態5によるステレオ画像符号化装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
動き位置情報設定部11はカメラ1,2の動き及び位置を示す動き位置情報を入力して、その動き位置情報を必要なピクチャ分だけ記憶し、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を出力する。
Embodiment 5. FIG.
FIG. 10 is a block diagram showing a stereo image coding apparatus according to Embodiment 5 of the present invention. In the figure, the same reference numerals as those in FIG.
The motion position information setting unit 11 inputs motion position information indicating the motion and position of the cameras 1 and 2, stores the motion position information for the necessary pictures, and the motion position information at the time when the predicted reference image is taken And the movement position information at the time when the images A and B were taken, capture the change of the cameras 1 and 2 from the time when the predicted reference image was taken to the time when the images A and B were taken. The camera change information indicating the change of 2 is output.

探索範囲制御部12は動き位置情報設定部11から出力されたカメラ変化情報と視差算出部3により算出された視差に基づいて予測参照画像の探索範囲を決定する処理を実施する。
動き予測部13は図1の動き予測部7と同様に、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を探索範囲制御部12により決定された探索範囲に制御(制限)する。
なお、動き位置情報設定部11、探索範囲制御部12及び動き予測部13から動き予測手段が構成されている。
The search range control unit 12 performs a process of determining the search range of the predicted reference image based on the camera change information output from the motion position information setting unit 11 and the parallax calculated by the parallax calculation unit 3.
Similar to the motion prediction unit 7 in FIG. 1, the motion prediction unit 13 searches for a prediction reference image corresponding to each group region image and predicts the motion of each group region image using the prediction reference image. When searching for a predicted reference image corresponding to an image, the search range of the predicted reference image is controlled (limited) to the search range determined by the search range control unit 12.
The motion position information setting unit 11, the search range control unit 12, and the motion prediction unit 13 constitute a motion prediction unit.

次に動作について説明する。
動き位置情報設定部11、探索範囲制御部12及び動き予測部13以外は、上記実施の形態1と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
Next, the operation will be described.
Except for the motion position information setting unit 11, the search range control unit 12, and the motion prediction unit 13, it is the same as in the first embodiment.
When the motion position information setting unit 11 receives motion position information indicating the motion and position of the cameras 1 and 2, the motion position information setting unit 11 stores the motion position information for the necessary pictures. That is, every time the movement position information is input, the latest movement position information is overwritten and recorded on the oldest movement position information.

動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を探索範囲制御部12に出力する。   The motion position information setting unit 11 uses the motion position information at the time when the predicted reference image is captured and the motion position information at the time when the images A and B are captured, from the time when the predicted reference image is captured. The camera change information indicating the change of the cameras 1 and 2 is output to the search range control unit 12 by capturing the changes of the cameras 1 and 2 up to the present time when B is photographed.

探索範囲制御部12は、動き位置情報設定部11からカメラ変化情報を受けると、そのカメラ変化情報と視差算出部3により算出された視差に基づいて予測参照画像の探索範囲を決定する。
探索範囲制御部12における探索範囲の具体的な決定方法については、下記の実施の形態7以降で後述する。
When receiving the camera change information from the motion position information setting unit 11, the search range control unit 12 determines the search range of the predicted reference image based on the camera change information and the parallax calculated by the parallax calculation unit 3.
A specific method for determining the search range in the search range control unit 12 will be described later in the seventh embodiment and later.

動き予測部13は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索して、各グループ領域画像の動きを予測するが、予測参照画像の探索効率を高めるため、図1の動き予測部7と異なり、予測参照画像の探索範囲を探索範囲制御部12により決定された探索範囲に制御する。   The motion prediction unit 13 searches for a prediction reference image corresponding to each group region image and predicts the motion of each group region image in the same manner as the motion prediction unit 7 in FIG. In order to increase efficiency, unlike the motion prediction unit 7 in FIG. 1, the search range of the predicted reference image is controlled to the search range determined by the search range control unit 12.

以上で明らかなように、この実施の形態5によれば、カメラ1,2の動き及び位置を示す動き位置情報を入力し、各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を動き位置情報が示すカメラの動き及び位置に応じて制御するように構成したので、実際の対象物の動きに対応する探索範囲で予測参照画像を探索することができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the fifth embodiment, the motion position information indicating the motion and position of the cameras 1 and 2 is input, and when the predicted reference image corresponding to each group region image is searched, the predicted reference Since the search range of the image is controlled according to the movement and position of the camera indicated by the movement position information, the prediction reference image can be searched in the search range corresponding to the actual movement of the object. As a result, there is an effect that the search efficiency (motion vector search efficiency) of the prediction reference image corresponding to each group region image can be increased.

実施の形態6.
上記実施の形態5では、動き位置情報設定部11がカメラ1,2の動き及び位置を示す動き位置情報を入力するものについて示したが、カメラ1,2の動きを示す情報として、カメラ1,2の水平回転角又は垂直回転角を含む情報を入力し、カメラ1,2の位置を示す情報として、カメラ1,2の三次元方向の移動距離(少なくとも1方向以上の移動距離)を含む情報を入力するようにしてもよい。
動き位置情報設定部11がカメラ1,2の水平回転角又は垂直回転角を含む情報や、カメラ1,2の三次元方向の移動距離を含む情報を入力すれば、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を正確に捉えることができる効果を奏する。
Embodiment 6 FIG.
In the fifth embodiment, the movement position information setting unit 11 inputs the movement position information indicating the movement and position of the cameras 1 and 2. Information including two horizontal rotation angles or vertical rotation angles is input, and information including the movement distances of the cameras 1 and 2 in the three-dimensional direction (movement distance of at least one direction) is used as information indicating the positions of the cameras 1 and 2. May be input.
If the motion position information setting unit 11 inputs information including the horizontal rotation angle or vertical rotation angle of the cameras 1 and 2 and information including the movement distance of the cameras 1 and 2 in the three-dimensional direction, the predicted reference image is captured. There is an effect that the change of the cameras 1 and 2 from the time to the current time when the images A and B are taken can be accurately captured.

ここでは、動き位置情報設定部11がカメラ1,2の水平回転角又は垂直回転角を含む情報や、カメラ1,2の三次元方向の移動距離を含む情報を入力するものについて示したが、動き位置情報設定部11が焦点を原点とする水平移動角又は垂直移動角を含む情報や、カメラ1,2の撮像方向の3次元移動情報を入力するようにしてもよい。
また、焦点からの距離、相対位置を示す情報又は絶対位置を示す情報を入力するようにしてもよい。
Here, the movement position information setting unit 11 has been shown to input information including the horizontal rotation angle or vertical rotation angle of the cameras 1 and 2 and information including the movement distance of the cameras 1 and 2 in the three-dimensional direction. The movement position information setting unit 11 may input information including a horizontal movement angle or a vertical movement angle with the focus as the origin, or three-dimensional movement information in the imaging direction of the cameras 1 and 2.
Further, the distance from the focal point, information indicating a relative position, or information indicating an absolute position may be input.

実施の形態7.
上記実施の形態2では、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、画像の探索範囲を指定領域とグループ領域画像が重なる範囲に制御するものについて示したが、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7がグルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
Embodiment 7 FIG.
In Embodiment 2 described above, when the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, the search range of the image is controlled to a range in which the designated region and the group region image overlap. Each group region image grouped by the grouping unit 4 when the cameras 1 and 2 are moved while rotating while the base point is located at the center of the image with the base point at infinity. When searching for a predicted reference image corresponding to, the search range of the predicted reference image may be controlled (limited) to a smaller range as the group region image has a smaller parallax.

図11はカメラ1,2の移動と探索範囲及びみかけ動きベクトルを示す説明図である。
図11では、無限遠方を基点として、その基点が画像の中心に置かれている状態で、回転しながらカメラ1,2が水平平面上で右から左に移動している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が回転移動したときに、カメラ1,2の移動前と移動後における各対象物の動き量を意味している。
FIG. 11 is an explanatory diagram showing the movement of the cameras 1 and 2, the search range, and the apparent motion vector.
FIG. 11 shows a state where the cameras 1 and 2 are moving from the right to the left on the horizontal plane while rotating while the base point is located at the center of the image with the base point at infinity.
In this case, the parallax of the group area image related to the elliptical object is larger than the parallax of the group area image related to the background, and the apparent amount of motion of the group area image related to the elliptical object having a large parallax is the parallax. Is larger than the apparent amount of motion of the group area image related to the small background.
Here, the apparent amount of movement is the amount of movement of each object before and after the movement of the cameras 1 and 2 when the cameras 1 and 2 are rotated while the object in the screen is stationary. Means.

そこで、動き予測部7は、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくする。
即ち、視差が最も大きいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が小さいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
Therefore, the motion prediction unit 7 uses an elliptical object with a large parallax when the cameras 1 and 2 are moved while rotating while the base point is located at the center of the image with the base point at infinity. The search range of the prediction reference image corresponding to the group region image related to the object is increased, and the search range of the prediction reference image corresponding to the group region image related to the background having a small parallax is reduced.
That is, the search range of the predicted reference image corresponding to the group region image with the largest parallax is set to the maximum, and the search range of the predicted reference image corresponding to the group region image with the smallest parallax is set to a smaller range.

以上で明らかなように、この実施の形態7によれば、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7がグルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するように構成したので、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the seventh embodiment, when the cameras 1 and 2 are moved while rotating while the base point is placed at the center of the image with the base point at infinity, the movement When the prediction unit 7 searches for a prediction reference image corresponding to each group region image grouped by the grouping unit 4, the search range of the prediction reference image is controlled to be smaller as the group region image has a smaller parallax. Therefore, even when the cameras 1 and 2 are moved while rotating with the base point at infinity as the base point, the search for the prediction reference image corresponding to each group region image is performed. There is an effect that efficiency (motion vector search efficiency) can be improved.

なお、通常、カメラ1,2は入力画像の中心に基点が存在するが、撮像系によっては基点が入力画像の中心にない場合もあり得るが、この実施の形態7では、基点が入力画像の中心にない場合にも対応することができる。
また、この実施の形態7では、カメラ1,2が水平平面上で回転移動するものについて示したが、カメラ1,2が任意方向に回転移動してもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
Normally, the cameras 1 and 2 have a base point at the center of the input image. However, depending on the imaging system, the base point may not be at the center of the input image. Even when it is not in the center, it can cope.
In the seventh embodiment, the cameras 1 and 2 rotate on the horizontal plane. However, the cameras 1 and 2 may rotate in any direction.
In addition, even if an upper limit of the motion vector search range is provided due to the size of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range may be the motion vector of the stereo image. Search efficiency can be increased.

実施の形態8.
上記実施の形態7では、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するものについて示したが、位置を変えずにカメラ1,2の回転が行われる場合、グルーピング部4によりグループ分けされた各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
Embodiment 8 FIG.
In Embodiment 7 described above, when the cameras 1 and 2 are moved while rotating while the base point is located at the center of the image with the base point at infinity, the motion predicting unit 7 applies to each group region image. In the case of searching for a corresponding predicted reference image, the search range of the predicted reference image is controlled so that the group region image with a smaller parallax has a smaller range. However, the cameras 1 and 2 are rotated without changing the position. When searching for a predicted reference image corresponding to each group region image grouped by the grouping unit 4, the search range of the predicted reference image may be controlled (limited) to a smaller range as the group region image has a larger parallax. Good.

図12はカメラ1,2の定位置での回転と探索範囲及びみかけ動きベクトルを示す説明図である。
図12では、位置を変えずにカメラ1,2が水平平面上で回転している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より小さくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が固定位置で回転したときに、カメラ1,2の回転前と回転後における各対象物の動き量を意味している。
FIG. 12 is an explanatory diagram showing rotation of the cameras 1 and 2 at a fixed position, a search range, and an apparent motion vector.
FIG. 12 shows a state where the cameras 1 and 2 are rotating on the horizontal plane without changing the position.
In this case, the parallax of the group area image related to the elliptical object is larger than the parallax of the group area image related to the background, and the apparent amount of motion of the group area image related to the elliptical object having a large parallax is the parallax. Is smaller than the apparent amount of motion of the group area image related to the background.
Here, the apparent amount of movement is the amount of each object before and after the rotation of the cameras 1 and 2 when the cameras 1 and 2 are rotated at a fixed position with the object in the screen stationary. It means the amount of movement.

そこで、動き予測部7は、位置を変えずにカメラ1,2の回転が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくする。
即ち、視差が最も小さいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が大きいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
Therefore, when the cameras 1 and 2 are rotated without changing the position, the motion prediction unit 7 reduces the search range of the prediction reference image corresponding to the group region image related to the elliptical object having a large parallax. Thus, the search range of the predicted reference image corresponding to the group region image related to the background with small parallax is increased.
That is, the search range of the prediction reference image corresponding to the group region image with the smallest parallax is set to the maximum, and the search range of the prediction reference image corresponding to the group region image with the large parallax is set to a smaller range.

以上で明らかなように、この実施の形態8によれば、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御するように構成したので、位置を変えずにカメラ1,2の回転が行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the eighth embodiment, when the cameras 1 and 2 are rotated without changing the position, the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image. At this time, since the search range of the predicted reference image is configured to be controlled to a smaller range as the group region image has a larger parallax, even when the cameras 1 and 2 are rotated without changing the position, each group region image is supported. There is an effect that it is possible to improve the search efficiency (motion vector search efficiency) of the predicted reference image to be performed.

なお、この実施の形態8では、カメラ1,2が水平平面上を回転するものについて示したが、カメラ1,2が任意方向に回転するものであってもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
In the eighth embodiment, the cameras 1 and 2 rotate on the horizontal plane. However, the cameras 1 and 2 may rotate in an arbitrary direction.
In addition, even if an upper limit of the motion vector search range is provided due to the size of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range may be the motion vector of the stereo image. Search efficiency can be increased.

実施の形態9.
上記実施の形態8では、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が大きいグループ領域画像ほど小さい範囲に制御するものについて示したが、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御(制限)するようにしてもよい。
Embodiment 9 FIG.
In Embodiment 8 above, when the cameras 1 and 2 are rotated without changing the position, when the motion prediction unit 7 searches for a predicted reference image corresponding to each group region image, the search range of the predicted reference image is set. Although the group area image having a larger parallax has been controlled to be controlled to a smaller range, when the cameras 1 and 2 are zoomed in and out, the motion prediction unit 7 searches for a predicted reference image corresponding to each group area image. At this time, the search range of the predicted reference image may be controlled (limited) to a smaller range as the group region image has a smaller parallax.

図13はカメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合の探索範囲及びみかけ動きベクトルを示す説明図である。
図13では、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる様子を表している。
カメラ1,2のズームインとズームアウトを行うと、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われるときに、カメラ1,2のズームイン(またはズームアウト)前と、ズームイン(またはズームアウト)後における各対象物の動き量を意味している。
FIG. 13 shows search ranges and apparent motion vectors when the cameras 1 and 2 are zoomed in and out when the positions of the cameras 1 and 2 are not changed and the cameras 1 and 2 are not rotated. It is explanatory drawing.
FIG. 13 shows a state in which the cameras 1 and 2 are zoomed in and out in a state where the positions of the cameras 1 and 2 are not changed and the cameras 1 and 2 are not rotating.
When the cameras 1 and 2 are zoomed in and out, the parallax of the group area image related to the elliptical object becomes larger than the parallax of the group area image related to the background, and the group related to the elliptical object having a large parallax The apparent amount of motion of the region image is larger than the apparent amount of motion of the group region image related to the background with a small parallax.
Here, the apparent amount of movement is determined when the position of the cameras 1 and 2 cannot be changed and the cameras 1 and 2 are not rotating when the object in the screen is stationary. This means the amount of movement of each object before zooming in (or zooming out) and after zooming in (or zooming out) of cameras 1 and 2 when zooming in and zooming out 2 are performed.

そこで、動き予測部7は、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合、視差が大きい楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を大きくして、視差が小さい背景に係るグループ領域画像に対応する予測参照画像の探索範囲を小さくする。
即ち、視差が最も大きいグループ領域画像に対応する予測参照画像の探索範囲を最も大きくして、視差が小さいグループ領域画像に対応する予測参照画像の探索範囲ほど、小さい範囲に設定するようにする。
Therefore, the motion prediction unit 7 has a large parallax when the cameras 1 and 2 are zoomed in and out while the positions of the cameras 1 and 2 are not changed and the cameras 1 and 2 are not rotating. The search range of the prediction reference image corresponding to the group region image related to the background with a small parallax is reduced by increasing the search range of the prediction reference image corresponding to the group region image related to the elliptical object.
That is, the search range of the predicted reference image corresponding to the group region image with the largest parallax is set to the maximum, and the search range of the predicted reference image corresponding to the group region image with the smallest parallax is set to a smaller range.

以上で明らかなように、この実施の形態9によれば、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部7が各グループ領域画像に対応する予測参照画像を探索する際、予測参照画像の探索範囲を視差が小さいグループ領域画像ほど小さい範囲に制御するように構成したので、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the ninth embodiment, when the cameras 1 and 2 are zoomed in and out, when the motion prediction unit 7 searches for a prediction reference image corresponding to each group region image, Since the search range of the predicted reference image is configured to be controlled to a smaller range as the group region image having a smaller parallax, the positions of the cameras 1 and 2 cannot be changed, and the cameras 1 and 2 are not rotated. Even when the cameras 1 and 2 are zoomed in and out, the search reference image search efficiency (motion vector search efficiency) corresponding to each group region image can be improved.

なお、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。   Even if an upper limit of the motion vector search range is provided due to the scale of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range is the motion vector of the stereo image. Search efficiency can be increased.

実施の形態10.
図14はこの発明の実施の形態10によるステレオ画像符号化装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
基準探索範囲設定部21はグルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画(例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像)に対応する予測参照画像の探索範囲を基準探索範囲として設定する処理を実施する。
探索範囲係数設定部22は各グループ領域画像の探索範囲係数を設定する処理を実施する。
Embodiment 10 FIG.
FIG. 14 is a block diagram showing a stereo image encoding apparatus according to Embodiment 10 of the present invention. In the figure, the same reference numerals as those in FIG.
The reference search range setting unit 21 is a group region image (for example, a group region image related to an elliptical object included in the images A and B) among the group region images grouped by the grouping unit 4. The process of setting the search range of the predicted reference image corresponding to) as the standard search range is performed.
The search range coefficient setting unit 22 performs a process of setting a search range coefficient for each group area image.

動き予測部23は図1の動き予測部7と同様に、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、基準探索範囲設定部21及び探索範囲係数設定部22の設定内容から、各グループ領域画像に対応する予測参照画像の探索範囲を決定する。
なお、基準探索範囲設定部21、探索範囲係数設定部22及び動き予測部23から動き予測手段が構成されている。
Similar to the motion prediction unit 7 in FIG. 1, the motion prediction unit 23 searches for a prediction reference image corresponding to each group region image and predicts the motion of each group region image using the prediction reference image. When searching for a predicted reference image corresponding to an image, the search range of the predicted reference image corresponding to each group region image is determined from the setting contents of the standard search range setting unit 21 and the search range coefficient setting unit 22.
The reference search range setting unit 21, the search range coefficient setting unit 22, and the motion prediction unit 23 constitute a motion prediction unit.

次に動作について説明する。
基準探索範囲設定部21、探索範囲係数設定部22及び動き予測部23以外は、上記実施の形態1と同様である。
基準探索範囲設定部21は、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定する。
例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像が基準のグループ領域画像である旨の設定がなされている場合、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲(ここでは説明の便宜上、基準探索範囲を“S”とする)として設定する。
Next, the operation will be described.
Except for the reference search range setting unit 21, the search range coefficient setting unit 22, and the motion prediction unit 23, it is the same as the first embodiment.
The reference search range setting unit 21 sets the search range of the predicted reference image corresponding to the reference group region image among the group region images grouped by the grouping unit 4 as the reference search range.
For example, when the group area image related to the elliptical object included in the images A and B is set to be the reference group area image, the elliptical shape included in the images A and B is set. The search range of the predicted reference image corresponding to the group region image related to the object is set as the standard search range (here, for convenience of explanation, the standard search range is “S”).

探索範囲係数設定部22は、グルーピング部4によりグループ分けされたグループ領域画像のうち、基準のグループ領域画以外のグループ領域画像の探索範囲係数を設定する。
例えば、画像A,Bに含まれている方形状の対象物に係るグループ領域画像の探索範囲係数を“1/2”に設定し、背景に係るグループ領域画像の探索範囲係数を“1/4”に設定する。
The search range coefficient setting unit 22 sets search range coefficients for group area images other than the reference group area image among the group area images grouped by the grouping unit 4.
For example, the search range coefficient of the group area image related to the rectangular object included in the images A and B is set to “1/2”, and the search range coefficient of the group area image related to the background is set to “1/4”. Set to "".

動き予測部23は、基準探索範囲設定部21が基準のグループ領域画像に対応する予測参照画像の基準探索範囲を設定し、探索範囲係数設定部22が基準のグループ領域画以外のグループ領域画像の探索範囲係数を設定すると、基準のグループ領域画以外のグループ領域画像の探索範囲を次のように決定する。
基準のグループ領域画以外のグループ領域画像の探索範囲
=基準探索範囲×当該グループ領域画像の探索範囲係数
これにより、方形状の対象物に係るグループ領域画像に対応する予測参照画像の探索範囲は“S/2”、背景に係るグループ領域画像に対応する予測参照画像の探索範囲は“S/4”に決定される。
動き予測部23における予測参照画像の探索処理や動き予測処理は、図1の動き予測部7と同様であるため説明を省略する。
In the motion prediction unit 23, the reference search range setting unit 21 sets the reference search range of the prediction reference image corresponding to the reference group region image, and the search range coefficient setting unit 22 sets the group region image other than the reference group region image. When the search range coefficient is set, the search range of the group area image other than the reference group area image is determined as follows.
Search range of group region images other than the standard group region image = reference search range × search range coefficient of the group region image Accordingly, the search range of the predicted reference image corresponding to the group region image related to the rectangular object is “ The search range of the predicted reference image corresponding to the group region image related to S / 2 "and the background is determined to be" S / 4 ".
The prediction reference image search processing and motion prediction processing in the motion prediction unit 23 are the same as those in the motion prediction unit 7 in FIG.

以上で明らかなように、この実施の形態10によれば、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定する基準探索範囲設定部21と、各グループ領域画像の探索範囲係数を設定する探索範囲係数設定部22とを備え、動き予測部23が各グループ領域画像に対応する予測参照画像を探索する際、基準探索範囲設定部21及び探索範囲係数設定部22の設定内容から、各グループ領域画像に対応する予測参照画像の探索範囲を決定するように構成したので、適正な探索範囲を計算によって簡単に求めることができる効果を奏する。   As apparent from the above, according to the tenth embodiment, the search range of the predicted reference image corresponding to the reference group region image among the group region images grouped by the grouping unit 4 is set as the reference search range. And a search range coefficient setting unit 22 for setting a search range coefficient for each group region image, and the motion prediction unit 23 searches for a prediction reference image corresponding to each group region image. At this time, since the search range of the prediction reference image corresponding to each group region image is determined from the setting contents of the reference search range setting unit 21 and the search range coefficient setting unit 22, an appropriate search range can be easily calculated. There is an effect that can be obtained.

なお、この実施の形態10では、基準探索範囲設定部21及び探索範囲係数設定部22が識別子情報付加部5から出力される識別子を参照して、基準のグループ領域画像や、基準のグループ領域画像以外のグループ領域画像を識別するものについて示したが、視差算出部3により算出された視差を考慮して、基準探索範囲や探索範囲係数を設定するようにしてもよい。
また、この実施の形態10では、探索範囲係数設定部22がグループ領域画像の探索範囲係数として、“1/2”や“1/4”を設定するものについて示したが、0以上の任意の数であればよい。
また、この実施の形態10では、基準のグループ領域画像の探索範囲係数については設定していないが、探索範囲係数設定部22が基準のグループ領域画像の探索範囲係数として“1”を設定して出力するようにしてもよい。
In the tenth embodiment, the reference search range setting unit 21 and the search range coefficient setting unit 22 refer to the identifier output from the identifier information adding unit 5, and the reference group region image or the reference group region image In the above description, the group area image other than the above is identified. However, the reference search range and the search range coefficient may be set in consideration of the parallax calculated by the parallax calculation unit 3.
In the tenth embodiment, the search range coefficient setting unit 22 sets “1/2” or “1/4” as the search range coefficient of the group area image. Any number is acceptable.
In the tenth embodiment, the search range coefficient of the reference group region image is not set, but the search range coefficient setting unit 22 sets “1” as the search range coefficient of the reference group region image. You may make it output.

実施の形態11.
上記実施の形態10では、例えば、楕円状の対象物に係るグループ領域画像が基準のグループ領域画像であるものとして事前に設定されているものについて示したが、基準探索範囲設定部21が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定するようにしてもよい。
Embodiment 11 FIG.
In the tenth embodiment, for example, the group area image related to the elliptical object has been set in advance as the reference group area image. The group area image in which 1 and 2 are in focus may be determined as the reference group area image, and the search range of the predicted reference image corresponding to the group area image may be set as the reference search area.

このように、基準探索範囲設定部21がカメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定する場合、焦点が合うグループ領域画像の視差が最小になるため、基準のグループ領域画像に対応する予測参照画像の基準探索範囲が最小の探索範囲になる。
したがって、焦点が合うグループ領域画像と比べて、焦点の手前側のグループ領域画像ほど視差が大きくなって探索範囲が大きくなるため、探索範囲係数設定部22は、焦点の手前側のグループ領域画像ほど大きな探索範囲係数を設定することになる。
また、焦点の奥側のグループ領域画像ほど視差が大きくなって探索範囲が大きくなるため、探索範囲係数設定部22は、焦点の奥側のグループ領域画像ほど大きな探索範囲係数を設定することになる。
In this way, when the reference search range setting unit 21 determines the group area image in which the cameras 1 and 2 are in focus as the reference group area image, the parallax of the in-focus group area image is minimized. The standard search range of the predicted reference image corresponding to the region image becomes the minimum search range.
Therefore, since the parallax becomes larger and the search range becomes larger as the group region image on the near side of the focus becomes larger than the group region image on the focus, the search range coefficient setting unit 22 sets the group region image on the near side of the focus. A large search range coefficient is set.
Further, since the parallax becomes larger and the search range becomes larger as the group area image on the deeper side of the focus, the search range coefficient setting unit 22 sets a larger search range coefficient for the group area image on the deeper side of the focus. .

以上で明らかなように、この実施の形態11によれば、基準探索範囲設定部21が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像に対応する予測参照画像の探索範囲を基準探索範囲として設定するように構成したので、カメラ1,2が動いたり、ズームインやズームアウトをしても、適正な探索範囲を設定することができる効果を奏する。   As is apparent from the above, according to the eleventh embodiment, the reference search range setting unit 21 determines the group region image in which the cameras 1 and 2 are in focus as the reference group region image, and the group region image Since the search range of the predicted reference image corresponding to is set as the standard search range, an appropriate search range can be set even if the cameras 1 and 2 move or zoom in and zoom out. Play.

実施の形態12.
図15はこの発明の実施の形態12によるステレオ画像符号化装置を示す構成図であり、図において、図10と同一符号は同一または相当部分を示すので説明を省略する。
みかけ動きベクトル制御部31は動き位置情報設定部11から出力されるカメラ変化情報と視差算出部3により算出される視差からみかけ動きベクトルを算出する処理を実施する。
動き予測部32はみかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測する。
なお、動き位置情報設定部11、みかけ動きベクトル制御部31及び動き予測部32から動き予測手段が構成されている。
Embodiment 12 FIG.
FIG. 15 is a block diagram showing a stereo image coding apparatus according to Embodiment 12 of the present invention. In the figure, the same reference numerals as those in FIG.
The apparent motion vector control unit 31 performs a process of calculating an apparent motion vector from the camera change information output from the motion position information setting unit 11 and the parallax calculated by the parallax calculation unit 3.
The motion prediction unit 32 searches for a predicted reference image corresponding to each group region image in consideration of the apparent motion vector calculated by the apparent motion vector control unit 31, and uses the predicted reference image to determine the motion of each group region image. Predict.
The motion position information setting unit 11, the apparent motion vector control unit 31, and the motion prediction unit 32 constitute a motion prediction unit.

次に動作について説明する。
みかけ動きベクトル制御部31及び動き予測部32以外は、上記実施の形態5と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、上記実施の形態5と同様に、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報をみかけ動きベクトル制御部31に出力する。
Next, the operation will be described.
Except for the apparent motion vector control unit 31 and the motion prediction unit 32, the present embodiment is the same as the fifth embodiment.
When the motion position information setting unit 11 receives the motion position information indicating the motion and position of the cameras 1 and 2, the motion position information setting unit 11 stores the motion position information for the necessary pictures as in the fifth embodiment. That is, every time the movement position information is input, the latest movement position information is overwritten and recorded on the oldest movement position information.
The motion position information setting unit 11 uses the motion position information at the time when the predicted reference image is captured and the motion position information at the time when the images A and B are captured, from the time when the predicted reference image is captured. The change of the cameras 1 and 2 up to the present time when B is photographed is captured, and the camera change information indicating the change of the cameras 1 and 2 is output to the apparent motion vector control unit 31.

みかけ動きベクトル制御部31は、動き位置情報設定部11からカメラ変化情報を受けると、そのカメラ変化情報と視差算出部3により算出される視差からみかけ動きベクトルを算出する。
みかけ動きベクトルは、図11〜図13におけるグループ領域画像のみかけの動き量に相当する。
Upon receiving the camera change information from the motion position information setting unit 11, the apparent motion vector control unit 31 calculates an apparent motion vector from the camera change information and the parallax calculated by the parallax calculation unit 3.
The apparent motion vector corresponds to the apparent motion amount of the group area image in FIGS.

動き予測部32は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索して、各グループ領域画像の動きを予測するが、予測参照画像の探索効率を高めるため、図1の動き予測部7と異なり、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索する。
即ち、動き予測部32は、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを動きベクトルの探索範囲の基点(中心)において、みかけ動きベクトルを中心とする動きベクトルの探索を行う。
The motion prediction unit 32 searches for a prediction reference image corresponding to each group region image and predicts the motion of each group region image in the same manner as the motion prediction unit 7 in FIG. In order to increase efficiency, unlike the motion prediction unit 7 in FIG. 1, a predicted reference image corresponding to each group region image is searched in consideration of the apparent motion vector calculated by the apparent motion vector control unit 31.
That is, the motion prediction unit 32 searches for the motion vector centered on the apparent motion vector at the base point (center) of the motion vector search range for the apparent motion vector calculated by the apparent motion vector control unit 31.

以上で明らかなように、この実施の形態12によれば、予測参照画像が撮影された時点から画像A,Bが撮影された時点までのカメラ1,2の変化を認識し、カメラ1,2の変化と視差算出部3により算出された視差からみかけ動きベクトルを算出し、みかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索するように構成したので、実際の対象物の動きに対応する探索範囲で予測参照画像を探索することができるようになり、その結果、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the twelfth embodiment, the change in the cameras 1 and 2 from the time when the predicted reference image is taken to the time when the images A and B are taken is recognized, and the cameras 1 and 2 are recognized. Since the apparent motion vector is calculated from the change in the parallax and the parallax calculated by the parallax calculation unit 3 and the predicted reference image corresponding to each group region image is searched in consideration of the apparent motion vector, the actual target The prediction reference image can be searched in the search range corresponding to the movement of the object, and as a result, the search efficiency (search efficiency of the motion vector) of the prediction reference image corresponding to each group region image can be increased. There is an effect.

なお、この実施の形態12では、みかけ動きベクトルを動きベクトルの探索範囲の基点(中心)におくものについて示したが、その他条件、または、符号化効率の観点等の理由から、みかけ動きベクトルを動きベクトルの探索範囲の任意の位置におくようにしてもよい。   In the twelfth embodiment, although the apparent motion vector is set at the base point (center) of the motion vector search range, the apparent motion vector is changed for other reasons or from the viewpoint of encoding efficiency. You may make it place in the arbitrary positions of the search range of a motion vector.

実施の形態13.
上記実施の形態12では、みかけ動きベクトル制御部31により算出されたみかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索するものについて示したが、図11に示すように、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
Embodiment 13 FIG.
In the twelfth embodiment, the search for the predicted reference image corresponding to each group region image in consideration of the apparent motion vector calculated by the apparent motion vector control unit 31 has been described, but as shown in FIG. When the cameras 1 and 2 are moved while rotating while the base point is located at the center of the image with the base point at infinity, the motion prediction unit 32 selects the prediction reference image corresponding to each group region image. When searching, the apparent motion vector control unit 31 may make the apparent motion vector smaller as the group region image has a smaller parallax.

図11は、上述したように、無限遠方を基点として、その基点が画像の中心に置かれている状態で、回転しながらカメラ1,2が水平平面上で右から左に移動している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が回転移動したときに、カメラ1,2の移動前と移動後における各対象物の動き量を意味している。
FIG. 11 shows a state in which the cameras 1 and 2 are moving from right to left on the horizontal plane while rotating, with the base point being at the center of the image, as described above, with the base point being at the center of the image. Represents.
In this case, the parallax of the group area image related to the elliptical object is larger than the parallax of the group area image related to the background, and the apparent amount of motion of the group area image related to the elliptical object having a large parallax is the parallax. Is larger than the apparent amount of motion of the group area image related to the small background.
Here, the apparent amount of movement is the amount of movement of each object before and after the movement of the cameras 1 and 2 when the cameras 1 and 2 are rotated while the object in the screen is stationary. Means.

そこで、みかけ動きベクトル制御部31は、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを大きくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを小さくする。
即ち、視差が最も大きいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が小さいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
Thus, the apparent motion vector control unit 31 uses an elliptical shape with a large parallax when the cameras 1 and 2 are moved while rotating while the base point is located at the center of the image with the base point being at infinity. The apparent motion vector of the group area image related to the target object is increased, and the apparent motion vector of the group area image related to the background with a small parallax is reduced.
That is, the apparent motion vector is maximized for the group area image having the largest parallax, and the apparent motion vector is made smaller for the group area image having the smallest parallax.

以上で明らかなように、この実施の形態13によれば、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、無限遠方を基点として、その基点が画像の中心に置かれている状態で回転しながらカメラ1,2の移動が行われるような場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the thirteenth embodiment, when the cameras 1 and 2 are moved while rotating while the base point is placed at the center of the image with the base point at infinity, When the prediction unit 32 searches for a prediction reference image corresponding to each group region image, the apparent motion vector control unit 31 is configured to decrease the apparent motion vector as the group region image has a smaller parallax. As a base point, even when the cameras 1 and 2 are moved while rotating while the base point is placed at the center of the image, the search efficiency (motion vector of the motion vector) corresponding to each group region image is moved. (Search efficiency) can be improved.

なお、通常、カメラ1,2は入力画像の中心に基点が存在するが、撮像系によっては基点が入力画像の中心にない場合もあり得るが、この実施の形態13では、基点が入力画像の中心にない場合にも対応することができる。
また、この実施の形態13では、カメラ1,2が水平平面上で回転移動するものについて示したが、カメラ1,2が任意方向に回転移動してもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
Normally, the cameras 1 and 2 have a base point at the center of the input image. However, depending on the imaging system, the base point may not be at the center of the input image. However, in Embodiment 13, the base point is the input image. Even when it is not in the center, it can cope.
In the thirteenth embodiment, the cameras 1 and 2 rotate on the horizontal plane. However, the cameras 1 and 2 may rotate in any direction.
In addition, even if an upper limit of the motion vector search range is provided due to the size of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range may be the motion vector of the stereo image. Search efficiency can be increased.

実施の形態14.
上記実施の形態13では、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするものについて示したが、図12に示すように、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が大きいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
Embodiment 14 FIG.
In the above-described thirteenth embodiment, the apparent motion vector control unit 31 has shown that the group motion image having a smaller parallax reduces the apparent motion vector. However, as shown in FIG. When the rotation of 2 is performed, when the motion prediction unit 32 searches for a prediction reference image corresponding to each group region image, the apparent motion vector control unit 31 decreases the apparent motion vector as the group region image has a larger parallax. You may do it.

図12は、上述したように、位置を変えずにカメラ1,2が水平平面上で回転している様子を表している。
この場合、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より小さくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2が固定位置で回転したときに、カメラ1,2の回転前と回転後における各対象物の動き量を意味している。
FIG. 12 shows a state where the cameras 1 and 2 are rotating on the horizontal plane without changing the position as described above.
In this case, the parallax of the group area image related to the elliptical object is larger than the parallax of the group area image related to the background, and the apparent amount of motion of the group area image related to the elliptical object having a large parallax is the parallax. Is smaller than the apparent amount of motion of the group area image related to the background.
Here, the apparent amount of movement is the amount of each object before and after the rotation of the cameras 1 and 2 when the cameras 1 and 2 are rotated at a fixed position with the object in the screen stationary. It means the amount of movement.

そこで、みかけ動きベクトル制御部31は、位置を変えずにカメラ1,2の回転が行われるような場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを小さくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを大きくする。
即ち、視差が最も小さいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が大きいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
Therefore, when the cameras 1 and 2 are rotated without changing the position, the apparent motion vector control unit 31 reduces the apparent motion vector only for the group region image related to the elliptical object having a large parallax, The apparent motion vector is increased only for the group area image related to the background with small parallax.
That is, the apparent motion vector for the group area image with the smallest parallax is maximized, and the apparent motion vector for the group area image with the largest parallax is made smaller.

以上で明らかなように、この実施の形態14によれば、位置を変えずにカメラ1,2の回転が行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が大きいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、位置を変えずにカメラ1,2の回転が行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the fourteenth embodiment, when the cameras 1 and 2 are rotated without changing the position, the motion prediction unit 32 searches for a prediction reference image corresponding to each group region image. At this time, since the apparent motion vector control unit 31 is configured to reduce the apparent motion vector as the group region image has a larger parallax, each group region can be obtained even when the cameras 1 and 2 are rotated without changing the position. There is an effect that the search efficiency of the predicted reference image corresponding to the image (the search efficiency of the motion vector) can be increased.

なお、この実施の形態14では、カメラ1,2が水平平面上を回転するものについて示したが、カメラ1,2が任意方向に回転するものであってもよい。
また、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。
In the fourteenth embodiment, the cameras 1 and 2 rotate on the horizontal plane. However, the cameras 1 and 2 may rotate in an arbitrary direction.
In addition, even if an upper limit of the motion vector search range is provided due to the size of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range may be the motion vector of the stereo image. Search efficiency can be increased.

実施の形態15.
上記実施の形態13では、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするものについて示したが、図13に示すように、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするようにしてもよい。
Embodiment 15 FIG.
In the thirteenth embodiment, the apparent motion vector control unit 31 has shown that the group region image having a smaller parallax reduces the apparent motion vector. However, as shown in FIG. When out is performed, when the motion prediction unit 32 searches for a prediction reference image corresponding to each group region image, the apparent motion vector control unit 31 decreases the apparent motion vector as the group region image has a smaller parallax. May be.

図13は、上述したように、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる様子を表している。
カメラ1,2のズームインとズームアウトを行うと、楕円状の対象物に係るグループ領域画像の視差が、背景に係るグループ領域画像の視差より大きくなり、視差が大きい楕円状の対象物に係るグループ領域画像のみかけの動き量が、視差が小さい背景に係るグループ領域画像のみかけの動き量より大きくなる。
ここで、みかけの動き量は、画面内の対象物が静止している状態で、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われるときに、カメラ1,2のズームイン(またはズームアウト)前と、ズームイン(またはズームアウト)後における各対象物の動き量を意味している。
FIG. 13 shows how the cameras 1 and 2 are zoomed in and out when the positions of the cameras 1 and 2 are not changed and the cameras 1 and 2 are not rotated as described above. Yes.
When the cameras 1 and 2 are zoomed in and out, the parallax of the group area image related to the elliptical object becomes larger than the parallax of the group area image related to the background, and the group related to the elliptical object having a large parallax The apparent amount of motion of the region image is larger than the apparent amount of motion of the group region image related to the background with a small parallax.
Here, the apparent amount of movement is determined when the position of the cameras 1 and 2 cannot be changed and the cameras 1 and 2 are not rotating when the object in the screen is stationary. This means the amount of movement of each object before zooming in (or zooming out) and after zooming in (or zooming out) of cameras 1 and 2 when zooming in and zooming out 2 are performed.

そこで、みかけ動きベクトル制御部31は、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合、視差が大きい楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを大きくして、視差が小さい背景に係るグループ領域画像のみかけ動きベクトルを小さくする。
即ち、視差が最も大きいグループ領域画像のみかけ動きベクトルを最も大きくして、視差が小さいグループ領域画像のみかけ動きベクトルほど、小さくするようにする。
Therefore, the apparent motion vector control unit 31 performs parallax when the cameras 1 and 2 are zoomed in and out when the positions of the cameras 1 and 2 are not changed and the cameras 1 and 2 are not rotated. The apparent motion vector is increased for the group area image related to the elliptical object having a large and the apparent motion vector is decreased for the group area image related to the background having a small parallax.
That is, the apparent motion vector is maximized for the group area image having the largest parallax, and the apparent motion vector is made smaller for the group area image having the smallest parallax.

以上で明らかなように、この実施の形態15によれば、カメラ1,2のズームインとズームアウトが行われる場合、動き予測部32が各グループ領域画像に対応する予測参照画像を探索する際、みかけ動きベクトル制御部31が、視差が小さいグループ領域画像ほど、みかけ動きベクトルを小さくするように構成したので、カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合でも、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the fifteenth embodiment, when the cameras 1 and 2 are zoomed in and zoomed out, when the motion prediction unit 32 searches for a predicted reference image corresponding to each group region image, Since the apparent motion vector control unit 31 is configured to reduce the apparent motion vector as the group region image has a smaller parallax, the positions of the cameras 1 and 2 cannot be changed, and the cameras 1 and 2 are not rotated. In this state, even when the cameras 1 and 2 are zoomed in and out, the search reference image search efficiency (motion vector search efficiency) corresponding to each group region image can be improved.

なお、ハードウェアの規模等の都合により、動きベクトルの探索範囲の上限を設ける場合でも、上限以下の範囲で、探索範囲の制御が行えるのであれば、制御範囲については、ステレオ画像の動きベクトルの探索効率を高めることができる。   Even if an upper limit of the motion vector search range is provided due to the scale of the hardware, etc., if the search range can be controlled within the range below the upper limit, the control range is the motion vector of the stereo image. Search efficiency can be increased.

実施の形態16.
図16はこの発明の実施の形態16によるステレオ画像符号化装置を示す構成図であり、図において、図15と同一符号は同一または相当部分を示すので説明を省略する。
基準みかけ動きベクトル設定部41はグルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画(例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像)のみかけ動きベクトルを基準みかけ動きベクトルとして設定する処理を実施する。
みかけ動きベクトル係数設定部42は各グループ領域画像のみかけ動きベクトル係数を設定する処理を実施する。
Embodiment 16 FIG.
FIG. 16 is a block diagram showing a stereo image coding apparatus according to Embodiment 16 of the present invention. In the figure, the same reference numerals as those in FIG.
The reference apparent motion vector setting unit 41 is a group region image (for example, a group region related to an elliptical object included in the images A and B) among the group region images grouped by the grouping unit 4. (Image) An apparent motion vector is set as a reference apparent motion vector.
The apparent motion vector coefficient setting unit 42 performs processing for setting an apparent motion vector coefficient for each group region image.

動き予測部43は図15の動き予測部32と同様に、みかけ動きベクトルを考慮して、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測するが、各グループ領域画像に対応する予測参照画像を探索する際、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42の設定内容から、各グループ領域画像のみかけ動きベクトルを決定する。
なお、基準みかけ動きベクトル設定部41、みかけ動きベクトル係数設定部42及び動き予測部43から動き予測手段が構成されている。
Similarly to the motion prediction unit 32 in FIG. 15, the motion prediction unit 43 searches for a prediction reference image corresponding to each group region image in consideration of the apparent motion vector, and uses the prediction reference image to move the motion of each group region image. However, when searching for a prediction reference image corresponding to each group region image, the apparent motion vector is determined for each group region image from the setting contents of the reference apparent motion vector setting unit 41 and the apparent motion vector coefficient setting unit 42. To do.
The reference apparent motion vector setting unit 41, the apparent motion vector coefficient setting unit 42, and the motion prediction unit 43 constitute a motion prediction unit.

次に動作について説明する。
基準みかけ動きベクトル設定部41、みかけ動きベクトル係数設定部42及び動き予測部43以外は、上記実施の形態1と同様である。
基準みかけ動きベクトル設定部41は、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定する。
例えば、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像が基準のグループ領域画像である旨の設定がなされている場合、画像A,Bに含まれている楕円状の対象物に係るグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトル(ここでは説明の便宜上、基準みかけ動きベクトルを“V”とする)として設定する。
Next, the operation will be described.
Except for the reference apparent motion vector setting unit 41, the apparent motion vector coefficient setting unit 42, and the motion prediction unit 43, the present embodiment is the same as the first embodiment.
The reference apparent motion vector setting unit 41 sets an apparent motion vector as a reference apparent motion vector among the group region images that are grouped by the grouping unit 4.
For example, when the group area image related to the elliptical object included in the images A and B is set to be the reference group area image, the elliptical shape included in the images A and B is set. The apparent motion vector of the group region image related to the object is set as a reference apparent motion vector (here, the reference apparent motion vector is “V” for convenience of explanation).

みかけ動きベクトル係数設定部42は、グルーピング部4によりグループ分けされたグループ領域画像のうち、基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル係数を設定する。
例えば、画像A,Bに含まれている方形状の対象物に係るグループ領域画像のみかけ動きベクトル係数を“1/2”に設定し、背景に係るグループ領域画像のみかけ動きベクトル係数を“1/4”に設定する。
The apparent motion vector coefficient setting unit 42 sets apparent motion vector coefficients only for group area images other than the reference group area image among the group area images grouped by the grouping unit 4.
For example, the apparent motion vector coefficient for the group area image related to the rectangular object included in the images A and B is set to “1/2”, and the apparent motion vector coefficient for the group area image related to the background is set to “1”. Set to / 4 ".

動き予測部43は、基準みかけ動きベクトル設定部41が基準のグループ領域画像の基準みかけ動きベクトルを設定し、みかけ動きベクトル係数設定部42が基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル係数を設定すると、基準のグループ領域画以外のグループ領域画像のみかけ動きベクトルを次のように決定する。
基準のグループ領域画以外のグループ領域画像のみかけ動きベクトル
=基準みかけ動きベクトル×当該グループ領域画像のみかけ動きベクトル係数
これにより、方形状の対象物に係るグループ領域画像のみかけ動きベクトルは“V/2”、背景に係るグループ領域画像のみかけ動きベクトルは“V/4”に決定される。
動き予測部43における予測参照画像の探索処理や動き予測処理は、図15の動き予測部32と同様であるため説明を省略する。
In the motion prediction unit 43, the reference apparent motion vector setting unit 41 sets the reference apparent motion vector of the reference group region image, and the apparent motion vector coefficient setting unit 42 applies the apparent motion vector of the group region image other than the reference group region image. When the coefficient is set, the motion vector for the group area image other than the reference group area image is determined as follows.
The apparent motion vector of the group region image other than the reference group region image = reference apparent motion vector × the apparent motion vector coefficient of the group region image. Thus, the apparent motion vector of the group region image related to the rectangular object is “V / 2 ", the apparent motion vector of the group area image related to the background is determined to be" V / 4 ".
The prediction reference image search processing and motion prediction processing in the motion prediction unit 43 are the same as those in the motion prediction unit 32 in FIG.

以上で明らかなように、この実施の形態16によれば、グルーピング部4によりグループ分けされたグループ領域画像の中で、基準となるグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定する基準みかけ動きベクトル設定部41と、各グループ領域画像のみかけ動きベクトル係数を設定するみかけ動きベクトル係数設定部42とを備え、動き予測部43が各グループ領域画像に対応する予測参照画像を探索する際、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42の設定内容から、各グループ領域画像のみかけ動きベクトルを決定するように構成したので、適正なみかけ動きベクトルを計算によって簡単に求めることができる効果を奏する。   As is apparent from the above, according to the sixteenth embodiment, a reference for setting an apparent motion vector as a reference apparent motion vector in a reference group region image among group region images grouped by the grouping unit 4. When an apparent motion vector setting unit 41 and an apparent motion vector coefficient setting unit 42 for setting an apparent motion vector coefficient for each group region image are provided, the motion prediction unit 43 searches for a predicted reference image corresponding to each group region image. Since the configuration is such that the apparent motion vector is determined only for each group region image from the setting contents of the reference apparent motion vector setting unit 41 and the apparent motion vector coefficient setting unit 42, an appropriate apparent motion vector can be easily obtained by calculation. There is an effect that can.

なお、この実施の形態16では、基準みかけ動きベクトル設定部41及びみかけ動きベクトル係数設定部42が識別子情報付加部5から出力される識別子を参照して、基準のグループ領域画像や、基準のグループ領域画像以外のグループ領域画像を識別するものについて示したが、視差算出部3により算出された視差を考慮して、基準みかけ動きベクトルやみかけ動きベクトル係数を設定するようにしてもよい。
また、この実施の形態16では、みかけ動きベクトル係数設定部42がグループ領域画像のみかけ動きベクトル係数として、“1/2”や“1/4”を設定するものについて示したが、0以上の任意の数であればよい。
また、この実施の形態16では、基準のグループ領域画像のみかけ動きベクトル係数については設定していないが、みかけ動きベクトル係数設定部42が基準のグループ領域画像のみかけ動きベクトル係数として“1”を設定して出力するようにしてもよい。
In the sixteenth embodiment, the reference apparent motion vector setting unit 41 and the apparent motion vector coefficient setting unit 42 refer to the identifier output from the identifier information adding unit 5, and the reference group region image and the reference group In the above description, the group area image other than the area image is identified. However, the reference apparent motion vector and the apparent motion vector coefficient may be set in consideration of the parallax calculated by the parallax calculation unit 3.
In the sixteenth embodiment, the apparent motion vector coefficient setting unit 42 sets “1/2” or “1/4” as the apparent motion vector coefficient for the group region image. Any number may be used.
In the sixteenth embodiment, the apparent motion vector coefficient is not set for the reference group region image, but the apparent motion vector coefficient setting unit 42 sets “1” as the apparent motion vector coefficient for the reference group region image. It may be set and output.

実施の形態17.
上記実施の形態16では、例えば、楕円状の対象物に係るグループ領域画像が基準のグループ領域画像であるものとして事前に設定されているものについて示したが、基準みかけ動きベクトル設定部41が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定するようにしてもよい。
Embodiment 17. FIG.
In Embodiment 16 described above, for example, the group area image related to the elliptical object has been set in advance as the reference group area image, but the reference apparent motion vector setting unit 41 The group area image in which the cameras 1 and 2 are in focus may be determined as the reference group area image, and the apparent motion vector of the group area image may be set as the reference apparent motion vector.

このように、基準みかけ動きベクトル設定部41がカメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定する場合、焦点が合うグループ領域画像の視差が最小になるため、基準のグループ領域画像の基準みかけ動きベクトルが最小のみかけ動きベクトルになる。
したがって、焦点が合うグループ領域画像と比べて、焦点の手前側のグループ領域画像ほど視差が大きくなってみかけ動きベクトルが大きくなるため、みかけ動きベクトル係数設定部42は、焦点の手前側のグループ領域画像ほど大きなみかけ動きベクトル係数を設定することになる。
また、焦点の奥側のグループ領域画像ほど視差が大きくなってみかけ動きベクトルが大きくなるため、みかけ動きベクトル係数設定部42は、焦点の奥側のグループ領域画像ほど大きなみかけ動きベクトル係数を設定することになる。
As described above, when the reference apparent motion vector setting unit 41 determines the group area image in which the cameras 1 and 2 are in focus as the reference group area image, the parallax of the in-focus group area image is minimized. The reference apparent motion vector of the group area image becomes the minimum apparent motion vector.
Therefore, since the parallax increases and the apparent motion vector increases as the group region image on the near side of the focus becomes larger than the group region image on the focus, the apparent motion vector coefficient setting unit 42 performs the group region on the near side of the focus. A larger apparent motion vector coefficient is set for an image.
Further, since the parallax increases and the apparent motion vector increases as the group area image on the far side of the focal point, the apparent motion vector coefficient setting unit 42 sets the larger apparent motion vector coefficient as the group area image on the far side of the focal point. It will be.

以上で明らかなように、この実施の形態17によれば、基準みかけ動きベクトル設定部41が、カメラ1,2の焦点が合うグループ領域画像を基準のグループ領域画像に決定して、そのグループ領域画像のみかけ動きベクトルを基準みかけ動きベクトルとして設定するように構成したので、カメラ1,2が動いたり、ズームインやズームアウトをしても、適正なみかけ動きベクトルを設定することができる効果を奏する。   As apparent from the above, according to the seventeenth embodiment, the reference apparent motion vector setting unit 41 determines the group region image in which the cameras 1 and 2 are in focus as the reference group region image, and the group region Since the apparent motion vector of the image is set as the reference apparent motion vector, an appropriate apparent motion vector can be set even if the cameras 1 and 2 move or zoom in and out. .

実施の形態18.
図17はこの発明の実施の形態18によるステレオ画像符号化装置を示す構成図であり、図において、図15と同一符号は同一または相当部分を示すので説明を省略する。
操作情報設定部51はカメラ1,2の操作を示す操作情報を入力して、その操作情報を必要なピクチャ分だけ記憶し、予測参照画像が撮影された時刻の操作情報と、画像A,Bが撮影された時刻の操作情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の操作の変化を捉え、カメラ1,2の操作の変化を示す操作変化情報を出力する。
Embodiment 18 FIG.
FIG. 17 is a block diagram showing a stereo image encoding apparatus according to Embodiment 18 of the present invention. In the figure, the same reference numerals as those in FIG.
The operation information setting unit 51 inputs operation information indicating the operation of the cameras 1 and 2, stores the operation information for the necessary pictures, operation information at the time when the predicted reference image was captured, and images A and B Based on the operation information at the time when the predicted reference image was taken, the change in the operation of the cameras 1 and 2 from the time when the predicted reference image was taken to the current time when the images A and B were taken is captured. Operation change information indicating is output.

画像変換部52は操作情報設定部51から出力された操作変化情報と動き位置情報設定部11から出力されたカメラ変化情報とに基づいてグルーピング部4によりグループ分けされた各グループ領域画像の画像変換を実施する。
動き予測部53は予測参照画像メモリ6の中から、各グループ領域画像の特性を考慮して、画像変換部52による画像変換後の各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測し、その予測結果を示す動きベクトルを出力する。
なお、動き位置情報設定部11、操作情報設定部51、画像変換部52及び動き予測部53から動き予測手段が構成されている。
The image conversion unit 52 converts the image of each group area image grouped by the grouping unit 4 based on the operation change information output from the operation information setting unit 51 and the camera change information output from the motion position information setting unit 11. To implement.
The motion prediction unit 53 searches the prediction reference image memory 6 for a prediction reference image corresponding to each group region image after image conversion by the image conversion unit 52 in consideration of the characteristics of each group region image, and performs prediction reference. A motion of each group region image is predicted using the image, and a motion vector indicating the prediction result is output.
The motion position information setting unit 11, the operation information setting unit 51, the image conversion unit 52, and the motion prediction unit 53 constitute a motion prediction unit.

次に動作について説明する。
動き位置情報設定部11、操作情報設定部51、画像変換部52及び動き予測部53以外は、上記実施の形態1と同様である。
動き位置情報設定部11は、カメラ1,2の動き及び位置を示す動き位置情報を入力すると、その動き位置情報を必要なピクチャ分だけ記憶する。即ち、動き位置情報を入力する毎に、最も古い動き位置情報の上に最新の動き位置情報を上書き記録する。
動き位置情報設定部11は、予測参照画像が撮影された時刻の動き位置情報と、画像A,Bが撮影された時刻の動き位置情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の変化を捉え、カメラ1,2の変化を示すカメラ変化情報を画像変換部52に出力する。
Next, the operation will be described.
Except for the motion position information setting unit 11, the operation information setting unit 51, the image conversion unit 52, and the motion prediction unit 53, it is the same as in the first embodiment.
When the motion position information setting unit 11 receives motion position information indicating the motion and position of the cameras 1 and 2, the motion position information setting unit 11 stores the motion position information for the necessary pictures. That is, every time the movement position information is input, the latest movement position information is overwritten and recorded on the oldest movement position information.
The motion position information setting unit 11 uses the motion position information at the time when the predicted reference image is captured and the motion position information at the time when the images A and B are captured, from the time when the predicted reference image is captured. The camera change information indicating the change of the cameras 1 and 2 is output to the image conversion unit 52 by capturing the changes of the cameras 1 and 2 up to the present time when B is photographed.

操作情報設定部51は、カメラ1,2の操作を示す操作情報を入力すると、その操作情報を必要なピクチャ分だけ記憶する。即ち、操作情報を入力する毎に、最も古い操作情報の上に最新の操作情報を上書き記録する。
操作情報設定部51は、予測参照画像が撮影された時刻の操作情報と、画像A,Bが撮影された時刻の操作情報とから、予測参照画像が撮影された時点から画像A,Bが撮影された現時点までのカメラ1,2の操作の変化を捉え、カメラ1,2の操作の変化を示す操作変化情報を画像変換部52に出力する。
When the operation information setting unit 51 inputs operation information indicating the operation of the cameras 1 and 2, the operation information setting unit 51 stores the operation information for the necessary pictures. That is, each time operation information is input, the latest operation information is overwritten and recorded on the oldest operation information.
The operation information setting unit 51 captures images A and B from the time when the predicted reference image is captured from the operation information at the time when the predicted reference image is captured and the operation information at the time when images A and B are captured. The change in the operation of the cameras 1 and 2 up to the present time is captured, and operation change information indicating the change in the operation of the cameras 1 and 2 is output to the image conversion unit 52.

画像変換部52は、動き位置情報設定部11からカメラ変化情報を受け、操作情報設定部51から操作変化情報を受けると、そのカメラ変化情報と操作変化情報に基づいてグルーピング部4から出力される各グループ領域画像の画像変換を実施する。
なお、画像変換部52における画像変換処理の具体例は、下記の実施の形態19以降に記載している。
When the image conversion unit 52 receives the camera change information from the motion position information setting unit 11 and receives the operation change information from the operation information setting unit 51, the image conversion unit 52 outputs the camera change information based on the camera change information and the operation change information. Image conversion of each group area image is performed.
A specific example of the image conversion processing in the image conversion unit 52 is described in the following nineteenth embodiment.

動き予測部53は、図1の動き予測部7と同様の方法で、各グループ領域画像に対応する予測参照画像を探索し、予測参照画像を用いて各グループ領域画像の動きを予測する。
ただし、動き予測部53は、図1の動き予測部7と異なり、画像変換部52による画像変換後の各グループ領域画像に対応する予測参照画像を探索する。
The motion prediction unit 53 searches for a prediction reference image corresponding to each group region image by a method similar to that of the motion prediction unit 7 in FIG. 1, and predicts the motion of each group region image using the prediction reference image.
However, unlike the motion prediction unit 7 in FIG. 1, the motion prediction unit 53 searches for a prediction reference image corresponding to each group region image after image conversion by the image conversion unit 52.

以上で明らかなように、この実施の形態18によれば、カメラ1,2の動き及び位置を示す動き位置情報と、カメラ1,2の操作を示す操作情報とに基づいて各グループ領域画像の画像変換を実施し、画像変換後の各グループ領域画像の動きを予測するように構成したので、カメラ1,2が操作されても、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As is apparent from the above, according to the eighteenth embodiment, each group region image is based on the movement position information indicating the movement and position of the cameras 1 and 2 and the operation information indicating the operation of the cameras 1 and 2. Since the image conversion is performed and the movement of each group area image after the image conversion is predicted, even if the cameras 1 and 2 are operated, the search efficiency (motion of the prediction reference image corresponding to each group area image is determined. This has the effect of improving the vector search efficiency.

実施の形態19.
上記実施の形態18では、操作情報設定部51がカメラ1,2の操作を示す操作情報を入力するものについて示したが、例えば、ズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するようにしてもよい。
例えば、カメラ1,2のズームインが行われた場合には、グループ領域画像が拡大されるため、グループ領域画像が対応する予測参照画像よりも大きくなってしまう。
そこで、画像変換部52は、ズームイン後のグループ領域画像を対応する予測参照画像の画像サイズと合わせるため、グルーピング部4から出力されたグループ領域画像に対して、予測参照画像からの拡大率の逆数を乗じてグループ領域画像を縮小し、縮小後のグループ領域画像を動き予測部53に出力する。
Embodiment 19. FIG.
In the eighteenth embodiment, the operation information setting unit 51 inputs operation information indicating the operation of the cameras 1 and 2. However, for example, operation information indicating zoom in, zoom out, pan, rotation, focus position, and the like. May be input.
For example, when the cameras 1 and 2 are zoomed in, the group area image is enlarged, so that the group area image becomes larger than the corresponding predicted reference image.
In view of this, the image conversion unit 52 matches the group area image after zooming in with the image size of the corresponding prediction reference image, and the reciprocal of the enlargement ratio from the prediction reference image with respect to the group area image output from the grouping unit 4. To reduce the group area image, and output the reduced group area image to the motion prediction unit 53.

逆に、カメラ1,2のズームアウトが行われた場合には、グループ領域画像が縮小されるため、グループ領域画像が対応する予測参照画像よりも小さくなってしまう。
そこで、画像変換部52は、ズームアウト後のグループ領域画像を対応する予測参照画像の画像サイズと合わせるため、グルーピング部4から出力されたグループ領域画像に対して、予測参照画像からの縮小率の逆数を乗じてグループ領域画像を拡大し、拡大後のグループ領域画像を動き予測部53に出力する。
なお、ズームイン又はズームアウトが行われた場合、視差が変化するので、倍率に応じてグループ領域画像の識別子情報と予測参照画像の識別子情報とを関連付ける。
同じく、焦点位置を変えることにより、視差が変化するので、焦点位置に応じてグループ領域画像の識別子情報と予測参照画像の識別子情報とを関連付ける。
On the contrary, when the cameras 1 and 2 are zoomed out, the group area image is reduced, so that the group area image becomes smaller than the corresponding predicted reference image.
Therefore, the image conversion unit 52 adjusts the reduction ratio from the predicted reference image to the group region image output from the grouping unit 4 in order to match the group region image after zoom-out with the image size of the corresponding predicted reference image. The group area image is enlarged by multiplying by the inverse, and the enlarged group area image is output to the motion prediction unit 53.
Note that, when the zoom-in or zoom-out is performed, the parallax changes, so that the identifier information of the group region image and the identifier information of the predicted reference image are associated according to the magnification.
Similarly, since the parallax changes by changing the focal position, the identifier information of the group region image and the identifier information of the predicted reference image are associated according to the focal position.

また、カメラ1,2が回転する場合、カメラ1,2が固定位置で回転するときと、カメラ1,2が移動しながら回転するときとでは、グループ領域画像の画像変換が異なる。
また、カメラ1,2が移動しながら回転する場合でも、焦点が対象に合っているときと、焦点が対象物と別のところにあるときとでは、グループ領域画像の画像変換が異なる。
焦点が対象物と合っている場合は、カメラ1,2の回転角の分だけ、対象物であるグループ領域画像を逆に回転させることで、グループ領域画像に対応する予測参照画像と同じ向きになる。
その他のカメラ1,2の回転については、カメラ1,2の回転角と位置情報に基づいてグループ領域画像の回転角を定める。
When the cameras 1 and 2 rotate, the image conversion of the group area image differs between when the cameras 1 and 2 rotate at a fixed position and when the cameras 1 and 2 rotate while moving.
Even when the cameras 1 and 2 rotate while moving, the image conversion of the group area image differs between when the focus is on the target and when the focus is at a different location from the target.
When the focus is on the object, the group area image that is the object is rotated in reverse by the rotation angle of the cameras 1 and 2 so that the predicted reference image corresponding to the group area image is oriented in the same direction. Become.
As for the other rotations of the cameras 1 and 2, the rotation angle of the group area image is determined based on the rotation angle of the cameras 1 and 2 and the position information.

また、カメラ1,2のパンが行われた場合、カメラ1,2の回転が伴わなければ、画像変換は特に行わず、グループ領域画像をそのまま変換画像とみなして出力する。パンでは、カメラ1,2の移動距離と画面内の移動画素との関係からみなし動きベクトルが求められるので、動き位置情報よりみなし動きベクトルとして動き予測部53に出力することで、動き予測部53では、そのみなし動きベクトルを探索範囲の基準(中心)として、効率のよい動きベクトル探索を行うことができる。   Further, when the cameras 1 and 2 are panned, if the cameras 1 and 2 are not rotated, image conversion is not particularly performed, and the group area image is regarded as a converted image and is output as it is. In panning, an assumed motion vector is obtained from the relationship between the movement distances of the cameras 1 and 2 and the moving pixels in the screen, so that the motion prediction unit 53 outputs the assumed motion vector to the motion prediction unit 53 from the motion position information. Then, an efficient motion vector search can be performed using the deemed motion vector as a reference (center) of the search range.

以上で明らかなように、この実施の形態19によれば、操作情報設定部51がズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するように構成したので、カメラ1,2がズームイン、ズームアウト、パン、回転、焦点位置などの操作が行われても、各グループ領域画像に対応する予測参照画像の探索効率(動きベクトルの探索効率)を高めることができる効果を奏する。   As apparent from the above, according to the nineteenth embodiment, the operation information setting unit 51 is configured to input operation information indicating zoom-in, zoom-out, pan, rotation, focus position, etc. Even if the zoom-in / zoom-out / pan / rotation / focus position operations are performed, the search reference image search efficiency (motion vector search efficiency) corresponding to each group region image can be improved. .

なお、この実施の形態19では、操作情報設定部51がズームイン、ズームアウト、パン、回転、焦点位置などを示す操作情報を入力するものについて示したが、これに限るものではなく、その他の操作情報を入力するようにしてもよい。
また、この実施の形態19では、画像変換部52がグループ領域画像を回転、拡大又は縮小の画像変換を行うものについて示したが、これに限るものではなく、その他の画像変換を行うようにしてもよい。
また、この実施の形態19では、操作情報が回転である場合、画像変換部52がグループ領域画像を回転するものについて示したが、画像変換部52がグループ領域画像を回転する際、グループ領域画像の見えていない部分(例えば、グループ領域画像の側面)の画像を用いて、グループ領域画像を補間するようにしてもよい。
この場合、別のカメラにより撮像された画像(例えば、グループ領域画像の側面)を用いて、グループ領域画像を補間してもよいし、予めデータベースに記憶されている画像(例えば、グループ領域画像の側面)を用いて、グループ領域画像を補間してもよい。
In the nineteenth embodiment, the operation information setting unit 51 inputs the operation information indicating zoom-in, zoom-out, pan, rotation, focus position, etc., but the present invention is not limited to this. Information may be input.
In the nineteenth embodiment, the image conversion unit 52 performs the image conversion for rotating, enlarging, or reducing the group area image. However, the present invention is not limited to this, and other image conversion is performed. Also good.
Further, in the nineteenth embodiment, when the operation information is rotation, the image conversion unit 52 rotates the group region image. However, when the image conversion unit 52 rotates the group region image, the group region image is rotated. The group area image may be interpolated by using an image of a portion where the image is not visible (for example, the side surface of the group area image).
In this case, the group region image may be interpolated using an image captured by another camera (for example, the side surface of the group region image), or an image stored in the database in advance (for example, the group region image) The group area image may be interpolated using the side surface.

実施の形態20.
上記実施の形態18,19では、画像変換部52がグループ領域画像の画像変換を実施するものについて示したが、予測参照画像メモリ6に格納されている予測参照画像(グループ領域画像に対応する予測参照画像)の画像変換を実施して、グループ領域画像と予測参照画像の画像サイズを合わせるようにしてもよく、上記実施の形態18,19と同様の効果を奏することができる。
Embodiment 20. FIG.
In the above eighteenth and nineteenth embodiments, the image conversion unit 52 performs the image conversion of the group region image. However, the prediction reference image (prediction corresponding to the group region image) stored in the prediction reference image memory 6 has been described. The image conversion of the reference image) may be performed to match the image sizes of the group region image and the predicted reference image, and the same effects as in the above-described eighteenth and nineteenth embodiments can be achieved.

なお、画像変換部52が予測参照画像を回転する場合、予測参照画像の見えていない部分(例えば、予測参照画像の側面)の画像を用いて、予測参照画像を補間するようにしてもよい。
この場合、別のカメラにより撮像された画像(例えば、予測参照画像の側面)を用いて、予測参照画像を補間してもよいし、予めデータベースに記憶されている画像(例えば、予測参照画像の側面)を用いて、予測参照画像を補間してもよい。
When the image conversion unit 52 rotates the predicted reference image, the predicted reference image may be interpolated using an image of a portion where the predicted reference image is not visible (for example, a side surface of the predicted reference image).
In this case, the prediction reference image may be interpolated using an image captured by another camera (for example, a side surface of the prediction reference image), or an image stored in the database in advance (for example, the prediction reference image of the prediction reference image). The prediction reference image may be interpolated using the side surface.

実施の形態21.
図18はこの発明の実施の形態21によるステレオ画像符号化装置を示す構成図であり、図において、図17と同一符号は同一または相当部分を示すので説明を省略する。
符号化部61は図1の符号化部8と同様の符号化処理を実施するほか、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)及び画像変換部52による画像変換を示す画像変換情報を符号化する。なお、符号化部61は符号化手段を構成している。
Embodiment 21. FIG.
FIG. 18 is a block diagram showing a stereo image coding apparatus according to Embodiment 21 of the present invention. In the figure, the same reference numerals as those in FIG.
The encoding unit 61 performs encoding processing similar to that of the encoding unit 8 of FIG. 1, and also includes camera change information (or camera motion position information) output from the motion position information setting unit 11 and an operation information setting unit 51. The operation change information (or camera operation information) output from the image conversion information and the image conversion information indicating the image conversion by the image conversion unit 52 are encoded. Note that the encoding unit 61 constitutes encoding means.

上記実施の形態1〜20では、符号化部8が画像A,Bに含まれているグループ領域画像と予測参照画像の差分画像を求め、その差分画像と動きベクトルを符号化するものについて示したが、この実施の形態21では、符号化部61が画像変換部52による画像変換後のグループ領域画像と予測参照画像の差分画像を求め、その差分画像と動きベクトルを符号化するようにする。
また、符号化部61は、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)、及び画像変換部52による画像変換を示す画像変換情報についても符号化する。
In Embodiments 1 to 20 described above, the encoding unit 8 obtains a difference image between the group region image and the prediction reference image included in the images A and B, and encodes the difference image and the motion vector. However, in the twenty-first embodiment, the encoding unit 61 obtains a difference image between the group region image after the image conversion by the image conversion unit 52 and the predicted reference image, and encodes the difference image and the motion vector.
The encoding unit 61 also includes camera change information (or camera motion position information) output from the motion position information setting unit 11, operation change information (or camera operation information) output from the operation information setting unit 51, The image conversion information indicating the image conversion by the image conversion unit 52 is also encoded.

以上で明らかなように、この実施の形態21によれば、動き位置情報設定部11から出力されたカメラ変化情報(またはカメラの動き位置情報)、操作情報設定部51から出力された操作変化情報(またはカメラの操作情報)及び画像変換部52による画像変換を示す画像変換情報を符号化するように構成したので、カメラ1,2が操作されて、グループ領域画像の画像変換が行われた場合でも、実際の動きに近い動き補償予測符号化を実現することができる効果を奏する。   As is apparent from the above, according to the twenty-first embodiment, the camera change information (or camera movement position information) output from the movement position information setting unit 11 and the operation change information output from the operation information setting unit 51. (Or camera operation information) and image conversion information indicating image conversion by the image conversion unit 52 are encoded, so that when the cameras 1 and 2 are operated to perform image conversion of a group area image However, there is an effect that it is possible to realize motion compensation predictive coding close to actual motion.

なお、この実施の形態21では、符号化部61が画像変換情報を符号化するものについて示したが、画像変換部52がグループ領域画像の画像変換を行わない場合には、その画像変換情報を符号化する必要はない。   In Embodiment 21, the encoding unit 61 encodes the image conversion information. However, when the image conversion unit 52 does not perform the image conversion of the group area image, the image conversion information is displayed. There is no need to encode.

実施の形態22.
上記実施の形態1〜21では、特に言及していないが、符号化部8(または符号化部61)が画像A,Bの符号化を行う際、画像A,Bに含まれているグループ領域画像をブロック単位に分割して、ブロック毎に符号化を実施するようにしてもよい。
この際、画像A,Bに含まれているグループ領域画像が複数存在しているブロックについては、複数のグループ領域画像の属性を考慮して符号化を実施するようにする。
具体的には、以下の通りである。
Embodiment 22. FIG.
Although not particularly mentioned in Embodiments 1 to 21, when encoding unit 8 (or encoding unit 61) encodes images A and B, group regions included in images A and B The image may be divided into blocks and encoding may be performed for each block.
At this time, for blocks in which a plurality of group area images included in the images A and B exist, encoding is performed in consideration of the attributes of the plurality of group area images.
Specifically, it is as follows.

この実施の形態22では、画像A,Bに含まれているグループ領域画像を8×8画素のブロックに分割し、ブロック毎に符号化を実施するものとする。
上記実施の形態4では、図9(a)に示すように、グループ領域画像の境界を含むブロックも含めて代表動きベクトルを求めているが、この実施の形態22では、あるブロック内に複数のグループ領域画像が存在している場合、複数のグループ領域画像の属性を考慮して符号化を実施する。
図9(a)の例では、図中、灰色の領域と白色の領域を含むブロックについては、灰色の領域の属性と、白色の領域の属性とに基づいて符号化を制御する。
これは、ブロック内が全て灰色の領域と、ブロック内が全て白色の領域と、ブロック内が灰色と白色が混在する領域のそれぞれについて、個別に符号化制御を行わせるようにするためである。
In the twenty-second embodiment, the group area images included in the images A and B are divided into 8 × 8 pixel blocks, and encoding is performed for each block.
In the fourth embodiment, as shown in FIG. 9A, the representative motion vector is obtained including the block including the boundary of the group area image. However, in the twenty-second embodiment, a plurality of blocks are included in a certain block. When group area images exist, encoding is performed in consideration of attributes of a plurality of group area images.
In the example of FIG. 9A, for the block including the gray area and the white area in the drawing, the encoding is controlled based on the attribute of the gray area and the attribute of the white area.
This is because the coding control is individually performed for each of the gray area in the block, the white area in the block, and the gray and white area in the block.

以上で明らかなように、この実施の形態22によれば、画像A,Bに含まれているグループ領域画像が複数存在しているブロックについては、複数のグループ領域画像の属性を考慮して符号化を実施するように構成したので、属性が異なる領域について個別に符号化制御を行わせることができるようになり、その結果、目的に応じた符号化制御が可能になる効果を奏する。即ち、注目領域については、ブロック内が全て注目領域の画像の場合、多く符号化情報量を割り当て、注目領域と注目領域でない画像がブロック内に混在する場合は、全て注目領域の画像の場合と比べて割り当てる符号化情報量を減らし、全て注目領域の画像でない場合は、少なく符号化情報量を割り当てるようにすることなどが可能になる。   As is apparent from the above, according to the twenty-second embodiment, a block in which a plurality of group area images are included in the images A and B is coded in consideration of the attributes of the plurality of group area images. Therefore, it is possible to individually perform coding control for regions having different attributes, and as a result, it is possible to perform coding control according to the purpose. That is, with respect to the attention area, when all the images in the block are the attention area images, a large amount of encoding information is allocated, and when the attention area and the image that is not the attention area are mixed in the block, In comparison, the amount of encoded information to be allocated is reduced, and when all the images are not in the region of interest, it is possible to allocate a small amount of encoded information.

この実施の形態22では、画像A,Bに含まれているグループ領域画像を8×8画素のブロックに分割するものについて示したが、分割画素数は任意でよく、また、動き予測用のブロックサイズと符号化用のブロックサイズが異なっていてもよい。
また、この実施の形態22では、注目領域については、ブロック内が全て注目領域の画像の場合、多く符号化情報量を割り当て、注目領域と注目領域でない画像がブロック内に混在する場合は、全て注目領域の画像の場合と比べて割り当てる符号化情報量を減らし、全て注目領域の画像でない場合は、少なく符号化情報量を割り当てることができる旨を述べたが、符号化ブロックに対する符号化情報量の割り当ては任意でよい。
In the twenty-second embodiment, the group area image included in the images A and B is divided into 8 × 8 pixel blocks. However, the number of divided pixels may be arbitrary, and the motion prediction block The size and the block size for encoding may be different.
In the twenty-second embodiment, for the attention area, if the entire block is an image of the attention area, a large amount of encoding information is allocated, and if the attention area and the image that is not the attention area are mixed in the block, all The amount of encoding information to be allocated is reduced compared to the case of the image of the attention area, and if all the images of the attention area are not described, it is described that the amount of encoding information can be allocated. The assignment of may be arbitrary.

なお、グループ領域画像の属性としては、例えば、ブロック内の面積を使用することができる。また、グループ領域画像の属性は、視差、特性情報、ブロック内の識別子に対応するグループ領域画像の面積の中央値又は視差の中央値などでもよい。また、焦点が合うグループ領域画像との奥行方向の位置関係でもよい。
グループ領域画像の属性は、ブロック内の識別子に対応する各グループの面積に基づいて重み付け係数を決め、その重み付け係数の平均値又は重み付け係数の2乗平均値の平方根に最も近い重み付け係数に対応するグループ領域画像の属性でもよい。
As an attribute of the group region image, for example, an area in the block can be used. Further, the attribute of the group area image may be parallax, characteristic information, the median value of the area of the group area image corresponding to the identifier in the block, or the median value of parallax. Further, it may be a positional relationship in the depth direction with the group area image that is in focus.
The attribute of the group region image determines the weighting coefficient based on the area of each group corresponding to the identifier in the block, and corresponds to the weighting coefficient closest to the average value of the weighting coefficient or the square root of the squared average value of the weighting coefficient. It may be an attribute of a group area image.

この発明の実施の形態1によるステレオ画像符号化装置を示す構成図である。It is a block diagram which shows the stereo image coding apparatus by Embodiment 1 of this invention. この発明の実施の形態1によるステレオ画像符号化方法を示すフローチャートである。It is a flowchart which shows the stereo image coding method by Embodiment 1 of this invention. カメラ1,2により撮影された画像A,Bと画面内の視差を示す説明図である。It is explanatory drawing which shows the image A and B image | photographed with the cameras 1 and 2, and the parallax in a screen. グループ領域画像を示す説明図である。It is explanatory drawing which shows a group area | region image. グループ領域画像を示す説明図である。It is explanatory drawing which shows a group area | region image. 画像の探索範囲を説明する説明図である。It is explanatory drawing explaining the search range of an image. 画像の探索範囲を説明する説明図である。It is explanatory drawing explaining the search range of an image. 代表動きベクトルを説明する説明図である。It is explanatory drawing explaining a representative motion vector. 代表動きベクトルの探索方法を説明する説明図である。It is explanatory drawing explaining the search method of a representative motion vector. この発明の実施の形態5によるステレオ画像符号化装置を示す構成図である。It is a block diagram which shows the stereo image coding apparatus by Embodiment 5 of this invention. カメラ1,2の移動と探索範囲及びみかけ動きベクトルを示す説明図である。It is explanatory drawing which shows the movement of the cameras 1 and 2, a search range, and an apparent motion vector. カメラ1,2の定位置での回転と探索範囲及びみかけ動きベクトルを示す説明図である。It is explanatory drawing which shows the rotation in the fixed position of the cameras 1 and 2, a search range, and an apparent motion vector. カメラ1,2の位置が変えられず、かつ、カメラ1,2が回転していない状態で、カメラ1,2のズームインとズームアウトが行われる場合の探索範囲及びみかけ動きベクトルを示す説明図である。FIG. 4 is an explanatory diagram showing a search range and an apparent motion vector when the cameras 1 and 2 are zoomed in and out when the positions of the cameras 1 and 2 are not changed and the cameras 1 and 2 are not rotating. is there. この発明の実施の形態10によるステレオ画像符号化装置を示す構成図である。It is a block diagram which shows the stereo image coding apparatus by Embodiment 10 of this invention. この発明の実施の形態12によるステレオ画像符号化装置を示す構成図である。It is a block diagram which shows the stereo image coding apparatus by Embodiment 12 of this invention. この発明の実施の形態16によるステレオ画像符号化装置を示す構成図である。It is a block diagram which shows the stereo image coding apparatus by Embodiment 16 of this invention. この発明の実施の形態18によるステレオ画像符号化装置を示す構成図である。It is a block diagram which shows the stereo image coding apparatus by Embodiment 18 of this invention. この発明の実施の形態21によるステレオ画像符号化装置を示す構成図である。It is a block diagram which shows the stereo image coding apparatus by Embodiment 21 of this invention.

符号の説明Explanation of symbols

1,2 カメラ、3 視差算出部(視差算出手段)、4 グルーピング部(グルーピング手段、特性抽出手段)、5 識別子情報付加部、6 予測参照画像メモリ、7,13,23,32,43,53 動き予測部(動き予測手段)、8,61 符号化部(符号化手段)、11 動き位置情報設定部(動き予測手段)、12 探索範囲制御部(動き予測手段)、21 基準探索範囲設定部(動き予測手段)、22 探索範囲係数設定部(動き予測手段)、31 みかけ動きベクトル制御部(動き予測手段)、41 基準みかけ動きベクトル設定部(動き予測手段)、42 みかけ動きベクトル係数設定部(動き予測手段)、51 操作情報設定部(動き予測手段)、52 画像変換部(動き予測手段)。   1, 2 cameras, 3 parallax calculation unit (parallax calculation unit), 4 grouping unit (grouping unit, characteristic extraction unit), 5 identifier information addition unit, 6 prediction reference image memory, 7, 13, 23, 32, 43, 53 Motion prediction unit (motion prediction unit), 8, 61 encoding unit (encoding unit), 11 motion position information setting unit (motion prediction unit), 12 search range control unit (motion prediction unit), 21 reference search range setting unit (Motion prediction means), 22 search range coefficient setting section (motion prediction means), 31 apparent motion vector control section (motion prediction means), 41 reference apparent motion vector setting section (motion prediction means), 42 apparent motion vector coefficient setting section (Motion prediction means), 51 operation information setting section (motion prediction means), 52 image conversion section (motion prediction means).

Claims (26)

同一時刻に撮影された複数の画像を入力し、上記複数の画像における画面内の視差を算出する視差算出手段と、上記視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピング手段と、上記グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出手段と、上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測手段と、上記動き予測手段による各領域の動き予測結果を用いて、上記複数の画像の符号化を行う符号化手段とを備えたステレオ画像符号化装置。   A plurality of images taken at the same time are input, and a parallax calculation unit that calculates a parallax in the screen of the plurality of images, and a region in the screen are grouped according to the parallax calculated by the parallax calculation unit Grouping means, characteristic extracting means for extracting the characteristics of each area grouped by the grouping means, and movement of each area grouped by the grouping means in consideration of the characteristics extracted by the characteristic extracting means A stereo image encoding apparatus comprising: a motion prediction unit that predicts the image; and an encoding unit that encodes the plurality of images using a motion prediction result of each region by the motion prediction unit. 特性抽出手段は、グルーピング手段によりグループ分けされた各領域の特性として、各領域の分布状況、大きさ、形状、模様又は色を抽出することを特徴とする請求項1記載のステレオ画像符号化装置。   2. The stereo image encoding apparatus according to claim 1, wherein the characteristic extraction unit extracts a distribution state, a size, a shape, a pattern, or a color of each region as a characteristic of each region grouped by the grouping unit. . 動き予測手段は、複数の画像と異なる時刻に撮影された予測参照用の画像を格納している予測参照画像メモリの中から、特性抽出手段により抽出された特性を考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索し、上記予測参照用の画像を用いて各領域の動きを予測することを特徴とする請求項1または請求項2記載のステレオ画像符号化装置。   The motion prediction unit is configured to group the group by the grouping unit in consideration of the characteristics extracted by the characteristic extraction unit from the prediction reference image memory storing the prediction reference images taken at different times from the plurality of images. The stereo image code according to claim 1 or 2, wherein a prediction reference image corresponding to each divided area is searched, and a motion of each area is predicted using the prediction reference image. Device. 動き予測手段は、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を予め設定された指定領域と各領域が重なる範囲に制御することを特徴とする請求項3記載のステレオ画像符号化装置。   When searching for prediction reference images corresponding to the respective areas grouped by the grouping means, the motion predicting means controls the search range of the image to a range in which each designated area overlaps with a preset designated area. The stereo image encoding device according to claim 3, wherein: 動き予測手段は、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を予め設定された指定領域と各領域が重なる部分を含む範囲に制御することを特徴とする請求項3記載のステレオ画像符号化装置。   When searching for prediction reference images corresponding to the respective areas grouped by the grouping means, the motion predicting means controls the search range of the image to a range including a portion where each designated area overlaps with a preset designated area. The stereo image coding apparatus according to claim 3, wherein: 動き予測手段は、グルーピング手段によりグループ分けされた各領域の代表動きベクトルを求め、各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を上記代表動きベクトルを基準とする範囲に制御することを特徴とする請求項3記載のステレオ画像符号化装置。   The motion prediction means obtains a representative motion vector of each area grouped by the grouping means, and when searching for a prediction reference image corresponding to each area, the search range of the image is based on the representative motion vector. The stereo image coding apparatus according to claim 3, wherein the range is controlled to a range. 動き予測手段は、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報を入力し、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を上記動き位置情報が示すカメラの動き及び位置に応じて制御することを特徴とする請求項3記載のステレオ画像符号化装置。   The motion prediction means inputs motion position information indicating the motion and position of a camera taking a plurality of images, and when searching for prediction reference images corresponding to the respective areas grouped by the grouping means, 4. The stereo image encoding apparatus according to claim 3, wherein an image search range is controlled in accordance with a camera movement and position indicated by the movement position information. 動き予測手段は、カメラの水平回転角又は垂直回転角を示すとともに、上記カメラの三次元方向における1方向以上の移動距離を示す動き位置情報を入力することを特徴とする請求項7記載のステレオ画像符号化装置。   8. The stereo according to claim 7, wherein the motion prediction means inputs motion position information indicating a horizontal rotation angle or a vertical rotation angle of the camera and indicating a moving distance of one or more directions in the three-dimensional direction of the camera. Image encoding device. 動き予測手段は、無限遠方を基点として、上記基点が画像の中心に置かれている状態で回転しながらカメラの移動が行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を視差が小さい領域ほど小さい範囲に制御することを特徴とする請求項7または請求項8記載のステレオ画像符号化装置。   When the camera is moved while rotating while the base point is located at the center of the image with the base point at infinity as the base point, the motion prediction unit is for prediction reference corresponding to each area grouped by the grouping unit. 9. The stereo image encoding apparatus according to claim 7, wherein when the image is searched, the search range of the image is controlled to be a smaller range as the parallax is smaller. 動き予測手段は、位置を変えずにカメラの回転が行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を視差が大きい領域ほど小さい範囲に制御することを特徴とする請求項7または請求項8記載のステレオ画像符号化装置。   When the camera is rotated without changing the position, the motion prediction unit searches for the prediction reference image corresponding to each region grouped by the grouping unit, and the search range of the image is a region with a large parallax. 9. The stereo image encoding apparatus according to claim 7, wherein the stereo image encoding device is controlled to be as small as possible. 動き予測手段は、カメラのズームインとズームアウトが行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、上記画像の探索範囲を視差が小さい領域ほど小さい範囲に制御することを特徴とする請求項7または請求項8記載のステレオ画像符号化装置。   When the camera predicts zoom-in and zoom-out, when searching for a prediction reference image corresponding to each area grouped by the grouping means, the motion prediction means has a smaller search range for the image as the parallax is smaller. 9. The stereo image encoding device according to claim 7, wherein the stereo image encoding device is controlled to a range. 動き予測手段は、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、各領域の中で基準となる領域に対応する予測参照用の画像の探索範囲を設定する基準探索範囲設定部と、その他の領域の探索範囲係数を設定する探索範囲係数設定部とを備え、上記基準探索範囲設定部及び上記探索範囲係数設定部の設定内容から、その他の領域に対応する予測参照用の画像の探索範囲を決定することを特徴とする請求項3記載のステレオ画像符号化装置。   When searching for prediction reference images corresponding to the respective areas grouped by the grouping means, the motion prediction means sets a search range of the prediction reference images corresponding to the reference area in each area. A reference search range setting unit; and a search range coefficient setting unit for setting search range coefficients for other regions, and corresponding to other regions from the setting contents of the reference search range setting unit and the search range coefficient setting unit. 4. The stereo image encoding apparatus according to claim 3, wherein a search range of an image for prediction reference is determined. 基準探索範囲設定部は、グルーピング手段によりグループ分けされた各領域のうち、カメラの焦点が合う領域に対応する予測参照用の画像の探索範囲を、基準となる領域に対応する予測参照用の画像の探索範囲として設定することを特徴とする請求項12記載のステレオ画像符号化装置。   The reference search range setting unit sets the search reference image search range corresponding to the region in which the camera is focused among the regions grouped by the grouping unit to the prediction reference image corresponding to the reference region. The stereo image encoding device according to claim 12, wherein the stereo image encoding device is set as a search range. 動き予測手段は、予測参照用の画像が撮影された時点のカメラの動き及び位置を示す動き位置情報と、複数の画像が撮影された時点の動き及び位置を示す動き位置情報とから、予測参照用の画像が撮影された時点から複数の画像が撮影された時点までのカメラの変化を認識し、上記カメラの変化と視差算出手段により算出された視差からみかけ動きベクトルを算出し、上記みかけ動きベクトルを考慮して、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索することを特徴とする請求項3記載のステレオ画像符号化装置。   The motion prediction means predicts reference from motion position information indicating the motion and position of the camera at the time when the image for prediction reference is captured, and motion position information indicating the motion and position at the time when the plurality of images are captured. Recognizing a change in the camera from the time when the image is taken to the time when a plurality of images are taken, calculating the apparent motion vector from the change in the camera and the parallax calculated by the parallax calculating means, and the apparent motion 4. The stereo image encoding apparatus according to claim 3, wherein an image for prediction reference corresponding to each area grouped by the grouping means is searched in consideration of the vector. 動き予測手段は、無限遠方を基点として、上記基点が画像の中心に置かれている状態で回転しながらカメラの移動が行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、視差が小さい領域ほど、みかけ動きベクトルを小さくすることを特徴とする請求項14記載のステレオ画像符号化装置。   When the camera is moved while rotating while the base point is located at the center of the image with the base point at infinity as the base point, the motion prediction unit is for prediction reference corresponding to each area grouped by the grouping unit. 15. The stereo image encoding apparatus according to claim 14, wherein when the image is searched, the apparent motion vector is reduced in a region where the parallax is small. 動き予測手段は、位置を変えずにカメラの回転が行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、視差が大きい領域ほど、みかけ動きベクトルを小さくすることを特徴とする請求項14記載のステレオ画像符号化装置。   When the camera is rotated without changing the position, the motion prediction unit searches for a prediction reference image corresponding to each region grouped by the grouping unit, and the apparent motion vector is calculated for a region having a larger parallax. 15. The stereo image encoding device according to claim 14, wherein the stereo image encoding device is made small. 動き予測手段は、カメラのズームインとズームアウトが行われる場合、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、視差が小さい領域ほど、みかけ動きベクトルを小さくすることを特徴とする請求項14記載のステレオ画像符号化装置。   When the camera is zoomed in and zoomed out, when searching for prediction reference images corresponding to the respective areas grouped by the grouping means, the motion prediction unit decreases the apparent motion vector in a region with a smaller parallax. The stereo image encoding device according to claim 14. 動き予測手段は、グルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像を探索する際、各領域の中で基準となる領域のみかけ動きベクトルを設定する基準みかけ動きベクトル設定部と、その他の領域のみかけ動きベクトル係数を設定するみかけ動きベクトル係数設定部とを備え、上記基準みかけ動きベクトル設定部及び上記みかけ動きベクトル係数設定部の設定内容から、その他の領域のみかけ動きベクトルを決定することを特徴とする請求項14記載のステレオ画像符号化装置。   The motion prediction means, when searching for prediction reference images corresponding to the respective areas grouped by the grouping means, a reference apparent motion vector setting section for setting an apparent motion vector only as a reference area in each area; An apparent motion vector coefficient setting unit for setting an apparent motion vector coefficient for other regions, and an apparent motion vector for other regions is set based on the setting contents of the reference apparent motion vector setting unit and the apparent motion vector coefficient setting unit. The stereo image encoding device according to claim 14, wherein the stereo image encoding device is determined. 基準みかけ動きベクトル設定部は、グルーピング手段によりグループ分けされた各領域のうち、カメラの焦点が合う領域のみかけ動きベクトルを、基準となる領域に対応するみかけ動きベクトルとして設定することを特徴とする請求項18記載のステレオ画像符号化装置。   The reference apparent motion vector setting unit is configured to set an apparent motion vector as an apparent motion vector corresponding to a reference region, among the regions grouped by the grouping unit, in the region where the camera is focused. The stereo image encoding device according to claim 18. 動き予測手段は、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報と、上記カメラの操作を示す操作情報とに基づいてグルーピング手段によりグループ分けされた各領域の画像変換を実施し、画像変換後の各領域の動きを予測することを特徴とする請求項1または請求項2記載のステレオ画像符号化装置。   The motion prediction means performs image conversion of each region grouped by the grouping means based on motion position information indicating the motion and position of a camera that has captured a plurality of images and operation information indicating the operation of the camera. The stereo image encoding apparatus according to claim 1, wherein the stereo image encoding device is implemented and predicts the motion of each region after image conversion. 動き予測手段は、複数の画像を撮影しているカメラの動き及び位置を示す動き位置情報と、上記カメラの操作を示す操作情報とに基づいてグルーピング手段によりグループ分けされた各領域に対応する予測参照用の画像の画像変換を実施し、画像変換後の予測参照用の画像を用いて、各領域の動きを予測することを特徴とする請求項3記載のステレオ画像符号化装置。   The motion prediction means is a prediction corresponding to each area grouped by the grouping means based on motion position information indicating the motion and position of a camera taking a plurality of images and operation information indicating the operation of the camera. 4. The stereo image encoding apparatus according to claim 3, wherein image conversion of a reference image is performed, and motion of each region is predicted using a prediction reference image after image conversion. 符号化手段は、動き位置情報、カメラの操作情報又は画像変換を示す画像変換情報を符号化することを特徴とする請求項20または請求項21記載のステレオ画像符号化装置。   The stereo image encoding device according to claim 20 or 21, wherein the encoding means encodes motion position information, camera operation information, or image conversion information indicating image conversion. 符号化手段は、動き予測手段による各領域の動き予測結果を用いて、複数の画像の符号化を行う際、上記画像をブロック単位に分割して、ブロック毎に符号化を実施することを特徴とする請求項1または請求項2記載のステレオ画像符号化装置。   When encoding a plurality of images using the motion prediction results of each region by the motion prediction unit, the encoding unit divides the image into blocks and performs encoding for each block. The stereo image encoding device according to claim 1 or 2. 符号化手段は、グルーピング手段によりグループ分けされた領域が複数存在しているブロックについては、複数の領域の属性を考慮して符号化を実施することを特徴とする請求項23記載のステレオ画像符号化装置。   24. The stereo image code according to claim 23, wherein the encoding means performs encoding in consideration of attributes of a plurality of areas for a block in which a plurality of areas grouped by the grouping means exist. Device. 視差算出手段が同一時刻に撮影された複数の画像を入力し、上記複数の画像における画面内の視差を算出する視差算出ステップと、グルーピング手段が上記視差算出手段により算出された視差に応じて画面内の領域をグループ分けするグルーピングステップと、特性抽出手段が上記グルーピング手段によりグループ分けされた各領域の特性を抽出する特性抽出ステップと、動き予測手段が上記特性抽出手段により抽出された特性を考慮して、上記グルーピング手段によりグループ分けされた各領域の動きを予測する動き予測ステップと、符号化手段が上記動き予測手段による各領域の動き予測結果を用いて、上記複数の画像の符号化を行う符号化ステップとを備えたステレオ画像符号化方法。   A parallax calculation unit that inputs a plurality of images taken at the same time by the parallax calculation unit and calculates a parallax within the screen in the plurality of images, and a grouping unit according to the parallax calculated by the parallax calculation unit Considering the grouping step for grouping the areas in the group, the characteristic extraction step for the characteristic extraction means to extract the characteristics of each area grouped by the grouping means, and the characteristics for the motion prediction means extracted by the characteristic extraction means Then, the motion prediction step for predicting the motion of each region grouped by the grouping unit, and the encoding unit encodes the plurality of images using the motion prediction result of each region by the motion prediction unit. A stereo image encoding method comprising: an encoding step to be performed. 同一時刻に撮影された複数の画像を入力し、上記複数の画像における画面内の視差を算出する視差算出処理手順と、上記視差算出処理手順により算出された視差に応じて画面内の領域をグループ分けするグルーピング処理手順と、上記グルーピング処理手順によりグループ分けされた各領域の特性を抽出する特性抽出処理手順と、上記特性抽出処理手順により抽出された特性を考慮して、上記グルーピング処理手順によりグループ分けされた各領域の動きを予測する動き予測処理手順と、上記動き予測処理手順による各領域の動き予測結果を用いて、上記複数の画像の符号化を行う符号化処理手順とをコンピュータに実行させるためのステレオ画像符号化プログラム。   A plurality of images taken at the same time are input, a parallax calculation processing procedure for calculating the parallax in the screen in the plurality of images, and a region in the screen according to the parallax calculated by the parallax calculation processing procedure are grouped Considering the characteristics extracted by the grouping process procedure, the characteristic extraction process procedure for extracting the characteristics of each area grouped by the grouping process procedure, and the characteristic extraction process procedure, the grouping process procedure is performed. The computer executes a motion prediction processing procedure for predicting the motion of each divided region and a coding processing procedure for encoding the plurality of images using the motion prediction result of each region by the motion prediction processing procedure. Stereo image encoding program for making
JP2006355906A 2006-12-28 2006-12-28 Stereo image encoding device Expired - Fee Related JP4660463B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006355906A JP4660463B2 (en) 2006-12-28 2006-12-28 Stereo image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006355906A JP4660463B2 (en) 2006-12-28 2006-12-28 Stereo image encoding device

Publications (2)

Publication Number Publication Date
JP2008167267A true JP2008167267A (en) 2008-07-17
JP4660463B2 JP4660463B2 (en) 2011-03-30

Family

ID=39696075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006355906A Expired - Fee Related JP4660463B2 (en) 2006-12-28 2006-12-28 Stereo image encoding device

Country Status (1)

Country Link
JP (1) JP4660463B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011061973A1 (en) * 2009-11-18 2011-05-26 日本ビクター株式会社 Three-dimensional image display device and method of deriving motion vector
JP2011528889A (en) * 2008-07-20 2011-11-24 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Encoder optimization of stereoscopic video distribution system
JP2012257198A (en) * 2011-05-17 2012-12-27 Canon Inc Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09275578A (en) * 1996-04-04 1997-10-21 Sharp Corp Multi-viewpoint encoding and decoding device
JP2000165909A (en) * 1998-11-26 2000-06-16 Sanyo Electric Co Ltd Method and device for image compressing processing
JP2001285895A (en) * 2000-03-30 2001-10-12 Sanyo Electric Co Ltd Image data coder and its method
JP2003304562A (en) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd Object encoding method, object encoder, and program for object encoding
JP2005323021A (en) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd In-vehicle imaging system and imaging method
JP2006053692A (en) * 2004-08-10 2006-02-23 Riyuukoku Univ Image processor, image processing method and image processing program in moving image, and recording medium recording the program
JP2006518157A (en) * 2003-02-17 2006-08-03 エックスヴイディー コーポレイション Method and apparatus for object-based motion compensation
JP2006259847A (en) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd Automatic tracking device and automatic tracking method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09275578A (en) * 1996-04-04 1997-10-21 Sharp Corp Multi-viewpoint encoding and decoding device
JP2000165909A (en) * 1998-11-26 2000-06-16 Sanyo Electric Co Ltd Method and device for image compressing processing
JP2001285895A (en) * 2000-03-30 2001-10-12 Sanyo Electric Co Ltd Image data coder and its method
JP2003304562A (en) * 2002-04-10 2003-10-24 Victor Co Of Japan Ltd Object encoding method, object encoder, and program for object encoding
JP2006518157A (en) * 2003-02-17 2006-08-03 エックスヴイディー コーポレイション Method and apparatus for object-based motion compensation
JP2005323021A (en) * 2004-05-07 2005-11-17 Fuji Photo Film Co Ltd In-vehicle imaging system and imaging method
JP2006053692A (en) * 2004-08-10 2006-02-23 Riyuukoku Univ Image processor, image processing method and image processing program in moving image, and recording medium recording the program
JP2006259847A (en) * 2005-03-15 2006-09-28 Matsushita Electric Ind Co Ltd Automatic tracking device and automatic tracking method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011528889A (en) * 2008-07-20 2011-11-24 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Encoder optimization of stereoscopic video distribution system
US8885721B2 (en) 2008-07-20 2014-11-11 Dolby Laboratories Licensing Corporation Encoder optimization of stereoscopic video delivery systems
WO2011061973A1 (en) * 2009-11-18 2011-05-26 日本ビクター株式会社 Three-dimensional image display device and method of deriving motion vector
KR101253495B1 (en) * 2009-11-18 2013-04-11 닛뽕빅터 가부시키가이샤 Three-dimensional image display device and method of deriving motion vector
JP2012257198A (en) * 2011-05-17 2012-12-27 Canon Inc Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus
US8983217B2 (en) 2011-05-17 2015-03-17 Canon Kabushiki Kaisha Stereo image encoding apparatus, its method, and image pickup apparatus having stereo image encoding apparatus

Also Published As

Publication number Publication date
JP4660463B2 (en) 2011-03-30

Similar Documents

Publication Publication Date Title
US9109891B2 (en) Stereo camera
JP6371553B2 (en) Video display device and video display system
US9299152B2 (en) Systems and methods for image depth map generation
WO2012086120A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
CN114245905A (en) Depth aware photo editing
JP4658223B2 (en) Image generating method, apparatus, program thereof, and recording medium recording program
WO2011014419A1 (en) Methods, systems, and computer-readable storage media for creating three-dimensional (3d) images of a scene
JP2015522987A (en) Motion information estimation, coding and decoding in multi-dimensional signals by motion region and auxiliary information by auxiliary region
CN110945868B (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
WO2019124248A1 (en) Image processing device, content processing device, content processing system, and image processing method
KR20200102507A (en) Apparatus and method for generating image data bitstream
WO2019050038A1 (en) Image generation method and image generation device
JP4660463B2 (en) Stereo image encoding device
JP2013223008A (en) Image processing device and method
US8908012B2 (en) Electronic device and method for creating three-dimensional image
JP2015171097A (en) Image processing apparatus and control method thereof
JP2017207818A (en) Image processing apparatus, image processing method and program
JP2008022421A (en) Multi-viewpoint image compression encoding method, apparatus and program
JP6057629B2 (en) Image processing apparatus, control method thereof, and control program
JP2013150071A (en) Encoder, encoding method, program and storage medium
JP2014164497A (en) Information processor, image processing method and program
JP6351364B2 (en) Information processing apparatus, information processing method, and program
JP2020194400A (en) Image processing apparatus, image processing method, and program
JP2015220662A (en) Information processing apparatus, method for the same, and program
WO2017094241A1 (en) Display processing apparatus, display processing method, and computer-readable medium for executing display processing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees