JPH06269025A - Coding system for multi-eye stereoscopic video image - Google Patents

Coding system for multi-eye stereoscopic video image

Info

Publication number
JPH06269025A
JPH06269025A JP5587793A JP5587793A JPH06269025A JP H06269025 A JPH06269025 A JP H06269025A JP 5587793 A JP5587793 A JP 5587793A JP 5587793 A JP5587793 A JP 5587793A JP H06269025 A JPH06269025 A JP H06269025A
Authority
JP
Japan
Prior art keywords
correction value
correction
camera
unit
calculation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5587793A
Other languages
Japanese (ja)
Inventor
Makiko Konoshima
真喜子 此島
Kiichi Matsuda
喜一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP5587793A priority Critical patent/JPH06269025A/en
Publication of JPH06269025A publication Critical patent/JPH06269025A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Circuits (AREA)

Abstract

PURPOSE:To improve the coding efficiency by calculating a video signal from other camera based on a video signal from a predetermined camera in a multi- eye stereoscopic video signal and correcting the video signal from each camera based on the correction value. CONSTITUTION:A multi-eye camera picks up an object and a block matching section 1 takes block matching to picture data F0-Fn outputted from each camera based on a camera KO. Then a correction value calculation section 2 receiving block matching result information calculates a correction value representing relative position deviation between the reference camera KO and each of the cameras K1-Kn. Then correction sections 3-0 to 3-n correct picture data F1-Fn except reference picture data FO and a coding section 4 makes coding and a multiplexer section 5 applies multiplex processing to the data and the result is sent to a transmission line.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は符号化方式に関し、特に
多眼式立体映像データを高能率に符号化する方式に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coding system, and more particularly to a system for coding multi-view stereoscopic video data with high efficiency.

【0002】2眼式以上多眼式の立体映像を出力するカ
メラの位置が不揃いであること等によって生ずる画像の
位置の歪みを位置補正する必要がある。
It is necessary to correct the position distortion of an image caused by uneven positions of cameras for outputting stereoscopic images of a binocular or more multi-lens type.

【0003】[0003]

【従来の技術】図20には既に1992年にNHK技術
研究所で公開された多眼式立体映像を作る場合のシステ
ムの概念構成が示されており、まず、静止或いは動いて
いる被写体(タコ)100を、位置をタテ及びヨコに少
しづつずらした複数のカメラ群110で撮影する。次
に、複数のカメラ群110から得られた画像データを符
号器120で高能率符号化し、多重化部130でマルチ
プレクスした後、伝送路140などを介して伝送し、受
信側では分離部140でデマルチプレクスした後に復号
化を行い、ディスプレイ160に映し出す。
2. Description of the Related Art FIG. 20 shows a conceptual configuration of a system for producing a multi-view stereoscopic image which was already published at NHK Technical Research Institute in 1992. First, a stationary or moving subject (octopus) is shown. ) 100 is photographed by a plurality of camera groups 110 whose positions are slightly shifted vertically and horizontally. Next, the image data obtained from the plurality of camera groups 110 is subjected to high-efficiency coding by the encoder 120, multiplexed by the multiplexing unit 130, and then transmitted via the transmission line 140 or the like, and the separation unit 140 on the receiving side. Demultiplexing is performed and then decoding is performed, and the result is displayed on the display 160.

【0004】この出力側のディスプレイ160は、一例
としてレンチキュラ・レンズ(ヨコ方向にのみ視差があ
る場合)または、ハエの眼レンズ(タテ・ヨコ方向に視
差がある場合)が使用される。
As the output-side display 160, for example, a lenticular lens (when there is parallax only in the horizontal direction) or a fly's eye lens (when there is parallax in the vertical and horizontal directions) is used.

【0005】一例として、図21に、タコを被写体とし
たときの、タテ5眼、ヨコ5眼の、それぞれのカメラか
らの出力を分かり易く表示した例を示す。この例では、
上下方向にも視差が有る。
As an example, FIG. 21 shows an example in which the output from each of the five vertical and five horizontal cameras when the octopus is the subject is displayed in an easy-to-understand manner. In this example,
There is also parallax in the vertical direction.

【0006】このように位置をタテおよびヨコに少しづ
つずらした複数のカメラを用いるのは、1つのカメラか
らの出力を片方の眼に対する入力として、両眼視差を形
成して立体視を行えるようにするためであり、また、カ
メラを多数用いた場合、出力系でディスプレイ160を
見る人間が頭を振っても自然な立体視を行えるようにす
るためである。
As described above, the use of a plurality of cameras whose positions are slightly shifted vertically and horizontally allows the stereoscopic vision to be performed by forming the binocular parallax using the output from one camera as the input to one eye. In addition, when a large number of cameras are used, a person who looks at the display 160 in the output system can obtain a natural stereoscopic view even if the person shakes his / her head.

【0007】このように、多眼式立体映像データは自然
な立体映像を与えるものとして種々の利用が期待されて
おり、従ってその符号化方式も伝送容量が少なくて済む
高能率な符号化方式とする必要がある。
As described above, the multi-view stereoscopic image data is expected to be used in various ways as it gives a natural stereoscopic image. Therefore, the encoding system is a highly efficient encoding system which requires a small transmission capacity. There is a need to.

【0008】[0008]

【発明が解決しようとする課題】上記のように多眼式の
立体システムを用いて撮影等を行う場合、2眼〜多眼
式一体型のカメラを用いる場合、カメラ単品(単眼)
を組み合わせて用いる場合、の2つが挙げられる。
As described above, when shooting is performed using the multi-lens type stereoscopic system, when using a two-lens to multi-lens type integrated camera, a single camera (monocular) is used.
When used in combination, there are two.

【0009】また、一体型の場合においても、単品の
カメラをネジやワイヤ等で固定して一体型にしている場
合も多い。
Even in the case of the integrated type, there are many cases where a single camera is fixed by screws, wires or the like to form the integrated type.

【0010】このように、単品のカメラを組み合わせた
り、固定して一体型にしている場合、或るカメラを基準
にして考えると、他のカメラ本体が視差とは別の傾きを
有している場合が多く、立体視を困難にしていた。
As described above, in the case where a single camera is combined or fixed to form an integral type, when considering one camera as a reference, the other camera body has a tilt different from the parallax. In many cases, stereoscopic viewing was difficult.

【0011】例えば、2眼式の立体映像を撮影しようと
して、2台のカメラを組み合わせた場合、位置の補正が
困難で、上下に数ラインほどずれたり、回転が加わって
いたりしてしまうことが度々あった。
For example, when two cameras are combined to capture a stereoscopic image of a twin-lens type, it is difficult to correct the position, and the lines may be vertically displaced by several lines or may be rotated. It happened often.

【0012】そして、このような場合には微調整が面倒
な上、上下に数ラインずれたり、少しの回転が加わった
だけでも、視覚的に立体視がし難くなるばかりか、眼精
疲労を起こし易く、また、互いのカメラからの入力画像
の相関をとり、高能率符号化を行う際にも、符号化特性
の低下を招いていた。
In such a case, fine adjustment is troublesome, and even if a few lines are vertically displaced or a slight rotation is applied, not only is it difficult to visually perceive stereoscopic vision, but eye strain is also caused. It is liable to occur, and when the high-efficiency encoding is performed by correlating the input images from the cameras with each other, the encoding characteristic is deteriorated.

【0013】従って、本発明は、各カメラ間の位置ズレ
を矯正した多眼式立体映像データを高能率に符号化でき
る方式を実現することを目的とする。
Therefore, an object of the present invention is to realize a system capable of highly efficiently encoding multi-view stereoscopic image data in which positional deviation between cameras is corrected.

【0014】[0014]

【課題を解決するための手段及び作用】上記のような問
題点を解決する手段としては、 或るカメラを基準として、他カメラとのブロックマッ
チングをとる。 ブロックマッチング結果から、各カメラ間の位置ズレ
を示す補正量を算出する。 結果により各カメラからの画像データを補正する。 ことが考えられる。
Means and Actions for Solving the Problem As means for solving the above problems, a certain camera is used as a reference and block matching with another camera is performed. From the block matching result, the correction amount indicating the positional deviation between the cameras is calculated. The image data from each camera is corrected according to the result. It is possible.

【0015】このため、本発明に係る多眼式立体映像の
符号化方式では、図1に原理的に示すように、複数のカ
メラからの多眼式立体映像信号F1〜Fnの内の所定の
カメラからの映像信号を基準として他のカメラからの映
像信号とのブロックマッチングを取るブロックマッチン
グ部1と、該ブロックマッチング部1でのマッチング結
果情報から映像信号間のズレを示す補正値を算出する補
正値算出部2と、該補正値に基づき各カメラからの映像
信号を補正する補正部3と、各補正部3の出力信号を符
号化する符号化部4と、該符号化部4の各出力信号を多
重化して伝送路に送出する多重化部5と、を備えてい
る。
Therefore, in the multi-view stereoscopic video coding system according to the present invention, as shown in principle in FIG. 1, a predetermined one of the multi-view stereoscopic video signals F1 to Fn from a plurality of cameras is selected. A block matching unit 1 that performs block matching with a video signal from another camera on the basis of a video signal from a camera, and a correction value indicating a shift between the video signals is calculated from the matching result information in the block matching unit 1. A correction value calculation unit 2, a correction unit 3 that corrects a video signal from each camera based on the correction value, an encoding unit 4 that encodes an output signal of each correction unit 3, and each of the encoding units 4. And a multiplexing unit 5 that multiplexes output signals and sends them to a transmission line.

【0016】動作においては、まず多眼カメラで被写体
を撮影し、各カメラから出力された画像データF0〜F
nに対し、或るカメラK0を基準としてブロックマッチ
ング部1でブロックマッチングをとる。
In operation, first, a subject is photographed by a multi-lens camera, and image data F0 to F output from each camera.
For n, the block matching unit 1 performs block matching with a certain camera K0 as a reference.

【0017】そして、このブロックマッチング部1での
ブロックマッチング結果情報を受けた補正値算出部2で
は基準カメラK0と各カメラK1〜Knとの相対的な位
置ズレを示す補正値を算出する。
Then, the correction value calculation unit 2 which has received the block matching result information from the block matching unit 1 calculates a correction value indicating a relative positional deviation between the reference camera K0 and each of the cameras K1 to Kn.

【0018】この後、補正部3−0〜3−nにおいて基
準画像データF0を除く各画像データF1〜Fnを補正
し、後は符号化部4で符号化し、多重化部5で多重化処
理を行って伝送路へ送出する。
Thereafter, the correction units 3-0 to 3-n correct the respective image data F1 to Fn except the reference image data F0, and thereafter, the coding unit 4 codes the data and the multiplexing unit 5 performs the multiplexing process. And send it to the transmission line.

【0019】上記の本発明では、補正値算出部2が、該
マッチング結果情報の上下方向のベクトル値を用いて上
下方向への補正値を算出することができる。
In the above-described present invention, the correction value calculation unit 2 can calculate the correction value in the vertical direction by using the vector value in the vertical direction of the matching result information.

【0020】また、補正値算出部2は、該上下方向のベ
クトル値の発生頻度を参照して最も多く発生したベクト
ル値を該補正値とすることもできる。
Further, the correction value calculation unit 2 can refer to the frequency of occurrence of the vector value in the vertical direction and use the vector value generated most as the correction value.

【0021】更に補正値算出部2が、該上下方向のベク
トル値の平均値を算出して該補正値としてもよい。
Further, the correction value calculation unit 2 may calculate the average value of the vector values in the vertical direction and use it as the correction value.

【0022】更に補正値算出部2は、各補正値間の差が
閾値内に収まっていることを判定することにより該基準
カメラK0のみがずれていることを検出し、該基準カメ
ラK0に対する補正値を算出して各補正部3−0〜3−
nで画像データの補正を行ってもよい。
Further, the correction value calculation unit 2 detects that only the reference camera K0 is deviated by determining that the difference between the correction values is within the threshold value, and the correction for the reference camera K0 is performed. The value is calculated and each correction unit 3-0 to 3-
The image data may be corrected with n.

【0023】更に補正値算出部2は、該基準カメラK0
に対する補正値として全補正値の平均値をとってもよ
い。
Further, the correction value calculation unit 2 is configured to detect the reference camera K0.
The average value of all correction values may be taken as the correction value for.

【0024】更に補正値算出部2は、上記のような上下
方向だけでなく水平方向についても同様の補正値を算出
してもよい。
Further, the correction value calculation unit 2 may calculate the same correction value not only in the vertical direction as described above but also in the horizontal direction.

【0025】更に補正値算出部2は、該マッチング結果
情報のベクトルの画素毎の回転角を検出し、座標変換に
より補正値を算出することも可能である。
Further, the correction value calculation unit 2 can detect the rotation angle of each pixel of the vector of the matching result information and calculate the correction value by coordinate conversion.

【0026】[0026]

【実施例】図1に示した本発明に係る多眼式立体映像の
符号化方式における『補正値算出』を、以下に記述する
第1乃至第4の実施例により具体的に説明する。尚、2
眼式の場合は、方式的には多眼式の部分集合と見做すこ
とができるため、多眼式の場合について説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The "correction value calculation" in the multi-view stereoscopic video encoding system according to the present invention shown in FIG. 1 will be described in detail with reference to the first to fourth embodiments described below. 2
The case of the multi-view type can be regarded as a multi-view type subset in terms of method, and thus the multi-view type will be described.

【0027】(1)第1の実施例:図2〜図11 〔原理〕この実施例では、或る所定のカメラを基準とし
て、他のカメラ群が上下方向に角度を持ってずれている
場合の補正を実現するものである。尚、左右方向は視差
で動いていることが多いので補正する意味が余りなく、
ここでは行わない。
(1) First Embodiment: FIGS. 2 to 11 [Principle] In this embodiment, when another camera group is vertically offset with respect to a certain predetermined camera To realize the correction of. In addition, since the left and right directions often move with parallax, there is not much point in correcting,
Not done here.

【0028】図2及び図3はこの第1の実施例によるブ
ロックマッチング部1と補正値算出部2を組み合わせた
アルゴリズムを示したもので、カメラは図4に例示する
ように、格子状に(等間隔とは限らずに)配置されてい
るものとする。
2 and 3 show an algorithm in which the block matching unit 1 and the correction value calculation unit 2 according to the first embodiment are combined. As shown in FIG. 4, the cameras are arranged in a grid pattern ( It is assumed that they are arranged (not necessarily at equal intervals).

【0029】基準とするカメラ(例えばK0)からの出
力画像データをF0(704,480)、補正すべきカ
メラからの出力画像データをFn(704,480)と
定義する。但し、nは、画像データF0を基準とするカ
メラの数だけ存在するものであり、「704」及び「4
80」は図5(1) の画像フォーマットに示すように1画
面の有効画素領域を示している。
Output image data from a reference camera (for example, K0) is defined as F0 (704, 480), and output image data from a camera to be corrected is defined as Fn (704, 480). However, n exists as many as the number of cameras based on the image data F0, and “704” and “4”
“80” indicates an effective pixel area of one screen as shown in the image format of FIG. 5 (1).

【0030】また、後述すると共に図6に示すようなヒ
ストグラムをH(−15;15)(初期値オール
“0”)とし、ブロックマッチングで求めるベクトルを
Vnx(44,30),Vny(44,30)と定義す
る(図2のステップS1)。
Further, a histogram as will be described later and shown in FIG. 6 is set to H (-15; 15) (initial value is all "0"), and the vectors obtained by block matching are Vnx (44,30) and Vny (44, 30) (step S1 in FIG. 2).

【0031】画像データF0を基準として、公知の方法
により、他のカメラの画像データFnとのブロックマッ
チングを行う(同S2)。
Using the image data F0 as a reference, block matching with image data Fn of another camera is performed by a known method (at step S2).

【0032】このブロックマッチングのアルゴリズムが
図7のフローチャートに示されており、この例では2台
のカメラを用い、カメラK0の出力画像データをF0と
し、カメラKnの出力画像データをFnとすると共に、
図8にも示すように、画面を16×16画素のブロック
(x方向44個、y方向30個)に区切り、ブロックマ
ッチングを行う該当ブロックの左上の画素の座標を(x
0 ,y0 )とする。
This block matching algorithm is shown in the flowchart of FIG. 7. In this example, two cameras are used, the output image data of the camera K0 is F0, and the output image data of the camera Kn is Fn. ,
As shown in FIG. 8, the screen is divided into blocks of 16 × 16 pixels (44 in the x direction and 30 in the y direction), and the coordinates of the upper left pixel of the block for which block matching is performed are (x
0 , y 0 ).

【0033】そして、サーチをx方向及びy方向共に±
15画素分の範囲(VI,VJ)で行う(図7のステッ
プS31〜S33)。尚、初期値として、A=999999
(とり得る最大値), Vx=Vy=16を与える。
Then, the search is performed in ± in both the x direction and the y direction.
It is performed in the range (VI, VJ) for 15 pixels (steps S31 to S33 in FIG. 7). As an initial value, A = 999999
(Maximum possible value), Vx = Vy = 16 is given.

【0034】両画像の差分の絶対値をブロック全体に対
して評価関数を絶対値誤差(二乗誤差でもよい)として
累積した値Aoを求め(同S34)、累積値が一番小さ
くベクトルの大きさ(二乗和)が小さい位置のベクトル
を選び(同S35〜S41)、最終的に残ったベクトル
Vx及びVyを求める(同S42)。
A value Ao obtained by accumulating the absolute value of the difference between the two images as an absolute value error (or squared error) of the evaluation function for the entire block is determined (at step S34), and the cumulative value is the smallest and the vector size is the same. A vector having a small (sum of squares) is selected (at steps S35 to S41), and finally remaining vectors Vx and Vy are obtained (at step S42).

【0035】このようにして1ブロック間でのブロック
マッチングを1画面中の全ブロックに対して行うことに
より、基準カメラK0に対するカメラKnにおけるx方
向のベクトルVnx(44,30)とy方向のベクトル
Vny(44,30)を求めることができる(同S42
及び図2のステップS2)。
In this way, by performing block matching between one block for all blocks in one screen, the vector Vnx (44, 30) in the x direction and the vector in the y direction in the camera Kn with respect to the reference camera K0. Vny (44,30) can be calculated (at step S42).
And step S2 of FIG. 2).

【0036】さて、上下方向のずれを補正するために、
縦方向のベクトルVnyのみ用いる。縦方向のベクトル
Vnyの、±15画素分のサーチ範囲内で得られる各ベ
クトル(−15〜15)が、そのフレームの中でいくつ
発生しているかを図6に示した如くヒストグラムHとし
て記録する(同S3〜S10)。このヒストグラムを取
るベクトルの個数は全部で30(縦)×44(横)=1
320個となる。
Now, in order to correct the vertical shift,
Only the vertical vector Vny is used. The number of vectors (-15 to 15) obtained within the search range of ± 15 pixels of the vertical vector Vny is recorded in the frame as a histogram H as shown in FIG. (S3 to S10). The total number of vectors that take this histogram is 30 (vertical) × 44 (horizontal) = 1
It will be 320 pieces.

【0037】そして、このヒストグラムを取った内で最
も多く発生したベクトルの値をUyとし、このUyを補
正量とする(同S11〜S14)。
Then, the value of the most generated vector in the histogram is set as Uy, and this Uy is set as the correction amount (S11 to S14).

【0038】すなわち、カメラKnからの補正すべき画
像データFnを全体的にUyだけ上下方向に動かすよう
に各補正部3−0〜3−nに補正値Uyを与える(同S
15)。
That is, a correction value Uy is given to each of the correction units 3-0 to 3-n so as to move the image data Fn to be corrected from the camera Kn vertically by Uy as a whole (at the same step S).
15).

【0039】なお、これら求まった補正用のベクトルを
新たに視差補償ベクトルとして使用する場合には、ブロ
ック毎に公知の方法により、Vny(44、30)の配
列の要素(画面全体のy方向のベクトル)からUyを減
算して、視差補償ベクトルとすればよい(同S16〜S
22)。
When the correction vector thus obtained is newly used as a parallax compensation vector, the elements of the array of Vny (44, 30) (in the y direction of the entire screen are arranged for each block by a known method). Uy may be subtracted from the vector to obtain the parallax compensation vector (S16 to S16).
22).

【0040】また、上述の如く、通常の画像データ信号
は図5(1) に示すようなフォーマットになっているが、
通常画面に表示されるのは有効画素領域であり、マッチ
ングを行うのも有効画素領域のみである。
As described above, the normal image data signal has the format shown in FIG. 5 (1),
Only the effective pixel area is displayed on the normal screen, and the matching is performed only in the effective pixel area.

【0041】従って、補正を行った後に図5(2) に示す
ように、画像データ情報が存在しない部分ができても、
ダミー信号を挿入すれば画像データは壊れることがな
い。
Therefore, as shown in FIG. 5B after the correction, even if there is a portion where the image data information does not exist,
Inserting a dummy signal will not damage the image data.

【0042】第1の実施例の回路ブロック例:図9 図9の回路ブロックは補正値算出部2及び補正部3(補
正部3−0〜3−nの総称)を示したもので、ここで
は、ブロックマッチング部1から得た上下方向(y方
向)のベクトルをROM又はスイッチ11で、−15〜
15のいずれのベクトルに対応するかを判定してそれぞ
れのカウンタ12−1〜12−30に入力してカウント
し、これらのカウント値の内の最も多いものを比較器1
3で選択した後、デコーダ14で補正値Uyに変換す
る。
Circuit block example of the first embodiment: FIG . 9 The circuit block of FIG . 9 shows the correction value calculation unit 2 and the correction unit 3 (collective names of the correction units 3-0 to 3-n). Then, the vector in the vertical direction (y direction) obtained from the block matching unit 1 is read by the ROM or the switch 11 from −15 to −15.
It is determined which of the 15 vectors corresponds to, the counts are input to the respective counters 12-1 to 12-30 to count, and the most one of these count values is the comparator 1
After being selected in 3, the decoder 14 converts it into a correction value Uy.

【0043】そして、この補正値Uyと上記のベクトル
との差分を求めて視差補償ベクトルとすると共に、補正
値Uyを補正部としての可変遅延器3に与え、カメラ画
像データFnを補正値Uyだけ可変遅延させる。
Then, the difference between this correction value Uy and the above vector is obtained to be a parallax compensation vector, and the correction value Uy is given to the variable delay unit 3 as a correction unit so that the camera image data Fn is the correction value Uy only. Variable delay.

【0044】ブロックマッチングの回路例:図10 図7のフローチャートに示したブロックマッチングのア
ルゴリズムは図10に示すような回路によっても実現す
ることができ、減算器15と、加算器16,23,27
と、遅延器17と、比較器18,24と、セレクタ1
9,28,29と、デコーダ20と、2乗器21,2
2,25,26とで構成することができる。
Block Matching Circuit Example: FIG. 10 The block matching algorithm shown in the flow chart of FIG. 7 can also be realized by the circuit shown in FIG. 10, and the subtracter 15 and the adders 16, 23, 27 are used.
, Delay device 17, comparators 18 and 24, selector 1
9, 28, 29, decoder 20, and squarers 21, 2
2, 25, 26.

【0045】第1の実施例の変形例:図11 この変形例では、ヒストグラムHを取って最大のy方向
ベクトルを用いる代わりに画面全体のy(縦)方向のベ
クトルVnyの平均値を取り(ステップS23,S2
4)、これを補正値Uyとして補正するものである。
Modification of the First Embodiment: FIG. 11 In this modification, instead of taking the histogram H and using the maximum y-direction vector, the average value of the vector Vny in the y (vertical) direction of the entire screen is calculated ( Steps S23 and S2
4), which is corrected as a correction value Uy.

【0046】(2)第2の実施例:図12及び図13 〔原理〕上記の第1の実施例では、或るカメラK0から
の画像データF0を基準として、他のカメラK1〜Kn
からの画像データF1〜Fnの補正を行おうとしたが、
実際には基準画像データF0だけが画像データF1〜F
nと比較して縦方向にズレている場合があり、第2の実
施例ではこのズレの補正を行うものである。
(2) Second Embodiment: FIGS. 12 and 13 [Principle] In the first embodiment, the image data F0 from a certain camera K0 is used as a reference, and the other cameras K1 to Kn are used.
I tried to correct the image data F1 to Fn from
Actually, only the reference image data F0 is the image data F1 to F1.
There may be a vertical shift as compared with n, and this shift is corrected in the second embodiment.

【0047】図12において、基準とするカメラK0の
画像データF0(704,480)、補正すべきカメラ
K1の画像データをF1(704,480)、補正すべ
きカメラK2の画像データをF2(704,480)、
補正すべきカメラK3の画像データをF3(704,4
80)とする。
In FIG. 12, reference image data F0 (704, 480) of the camera K0, image data F1 (704, 480) of the camera K1 to be corrected, and image data F2 (704) of the camera K2 to be corrected. , 480),
The image data of the camera K3 to be corrected is set to F3 (704, 4
80).

【0048】また、これらのカメラ間でブロックマッチ
ングにより得られるベクトルを{V1x(44,3
0),V1y(44,30)}、{V2x(44,3
0),V2y(44,30)}、{V3x(44,3
0),V3y(44,30)}と定義する(図12のス
テップS51)。
Further, the vector obtained by block matching between these cameras is represented by {V1x (44,3
0), V1y (44,30)}, {V2x (44,3)
0), V2y (44,30)}, {V3x (44,3)
0), V3y (44, 30)} (step S51 in FIG. 12).

【0049】まず、上記の第1の実施例におけるブロッ
クマッチング(図7及び図10)を行ったものとし(こ
れは省略)、これにより得たベクトルを、画像データF
0とF1の場合=ベクトルV1x(44,30),V1
y(44,30)、画像データF0とF2の場合=ベク
トルV2x(44,30),V2y(44,30)、画
像データF0とF3の場合=ベクトルV3x(44,3
0),V3y(44,30)、とする(同S52)。
First, it is assumed that the block matching (FIGS. 7 and 10) in the first embodiment is performed (this is omitted), and the vector obtained by this is used as the image data F.
In the case of 0 and F1 = vector V1x (44,30), V1
y (44,30), image data F0 and F2 = vector V2x (44,30), V2y (44,30), image data F0 and F3 = vector V3x (44,3)
0), V3y (44, 30) (S52).

【0050】次に、やはり上記の第1の実施例における
ステップS3〜S15により、上記のベクトルV1y
(44,30)から補正値U1y、ベクトルV2y(4
4,30)から補正値U2y、ベクトルV3y(44,
30)から補正値U3yを得る(同S53)。
Next, also by the steps S3 to S15 in the above-mentioned first embodiment, the above-mentioned vector V1y is obtained.
The correction value U1y and the vector V2y (4
4, 30) to the correction value U2y and the vector V3y (44,
The correction value U3y is obtained from 30) (at step S53).

【0051】そして、ここで補正値U1y,U2y,U
3yが互いに似ているかどうかを調べる。即ち、補正値
U1yとU2yの差の絶対値が閾値TH1より小さく、
且つU1yとU3yの差の絶対値が閾値TH2より小さ
いかどうかをチェックし(同S54)、そうであるなら
ば、補正値U1y,U2y,U3yは似ていると見なし
て、基準となるカメラK0が傾いているものと判断し、
基準となるカメラK0の補正値U0yを算出する(同S
55)。
Then, here, the correction values U1y, U2y, U
Check if 3y are similar to each other. That is, the absolute value of the difference between the correction values U1y and U2y is smaller than the threshold value TH1,
Further, it is checked whether or not the absolute value of the difference between U1y and U3y is smaller than the threshold value TH2 (at step S54). Is determined to be inclined,
The correction value U0y of the reference camera K0 is calculated (S
55).

【0052】この補正値U0yは、補正値U1y,U2
y,U3yの平均値として算出すると共に、補正値U1
y,U2y,U3yは、上記のように求めた補正値U1
y,U2y,U3yからそれぞれ補正値U0yを減算し
たものに直しておく(同S55)。
The correction value U0y is the correction values U1y and U2.
y and U3y are calculated as an average value, and the correction value U1 is calculated.
y, U2y, U3y are the correction values U1 obtained as described above.
The correction values U0y are subtracted from y, U2y, and U3y, respectively, and corrected (S55).

【0053】このようにして求められた補正値を各補正
部3−0〜3−nに送り、各カメラからの画像データの
補正を行う(同S57)。
The correction value thus obtained is sent to each of the correction units 3-0 to 3-n to correct the image data from each camera (at step S57).

【0054】また、補正値U1yと補正値U2yの差の
絶対値が閾値TH1より大きいか又は補正値U1yと補
正値U3yの差の絶対値が閾値TH2より大きければ、
補正値U0y=0として、第1の実施例と同様に各カメ
ラの出力画像データの補正を行う(同S56)。
If the absolute value of the difference between the correction value U1y and the correction value U2y is larger than the threshold value TH1 or the absolute value of the difference between the correction value U1y and the correction value U3y is larger than the threshold value TH2,
With the correction value U0y = 0, the output image data of each camera is corrected as in the first embodiment (S56).

【0055】第2の実施例の回路ブロック例:図13 この第2の実施例の回路ブロック図が図13に示されて
おり、図9及び図10に示した回路ブロックを補正値算
出部2−1〜2−3として3つ用意し、これらから得ら
れた補正値U1y,U2y,U3yに対し、絶対値演算
部31,32で相互の差分絶対値を求め、該絶対値と閾
値TH1,TH2とをそれぞれ比較器33,34で比較
し、ステップS54に対応する判定をデコーダ35で行
って、平均値演算部36で得られた平均値か又は“0”
をセレクタ37で選択することにより、補正値U0yを
出力する簡単な回路の追加となっている。
Circuit block example of the second embodiment: FIG. 13 A circuit block diagram of the second embodiment is shown in FIG. 13, and the circuit block shown in FIG. 9 and FIG. Three are prepared as -1 to 2-3, absolute values of the correction values U1y, U2y, and U3y obtained from these are calculated by absolute value calculation units 31 and 32, and absolute values of the differences are calculated. TH2 is compared with each of the comparators 33 and 34, the determination corresponding to step S54 is performed by the decoder 35, and the average value obtained by the average value calculation unit 36 or "0" is obtained.
Is selected by the selector 37, a simple circuit for outputting the correction value U0y is added.

【0056】変形例 上記の第1及び第2の実施例が、上下方向のズレを検出
・補正しているが、変形例としては左右(横)方向のズ
レを検出・補正することも可能である。この場合、フロ
ーチャートとしては、上記の第1及び第2の実施例中で
y方向のベクトルを検出し、補正値を算出しているのに
対して、x方向のベクトルを検出し、補正値を算出する
ことが異なるだけであるので、特に記述しない。
MODIFIED EXAMPLE Although the first and second embodiments described above detect and correct the vertical displacement, it is also possible to detect and correct the lateral (lateral) displacement as a modified example. is there. In this case, in the flowchart, the vector in the y direction is detected and the correction value is calculated in the first and second embodiments, whereas the vector in the x direction is detected and the correction value is calculated. It is only described differently and will not be described.

【0057】(3)第3の実施例:図14乃至図19 〔原理〕この実施例は、補正すべきカメラの出力画像に
対し、ひねり等の力が加わって回転してしまった場合の
ズレの検出・補正方法を扱ったものであり、回転角を検
出し、行列による座標変換で補正を行う方法の実施例を
示している。
(3) Third Embodiment: FIG. 14 to FIG. 19 [Principle] In this embodiment, a shift occurs when a force such as a twist is applied to the output image of the camera to be corrected and the image is rotated. The present invention deals with the detection / correction method of (1), and shows an embodiment of a method of detecting a rotation angle and performing correction by coordinate conversion using a matrix.

【0058】図14〜図16に示すフローチャートは図
1に示した補正値算出部2と各補正部3−0〜3−nと
を組み合わせた実施例を示しており、まず、基準となる
カメラK0の画像データをF0(704,480)、補
正すべきカメラKnの画像データをFn(704,48
0)、画像データF0、画像データFnのブロックマッ
チングにより得られるベクトルをVnx(44,3
0),Vny(44,30)、各ベクトルに対応する回
転パラメータをV'11x〜V'230x ,V'11y〜V'244y 、
閾値THx,THy、チェック用配列Check(70
4,480)(初期値は全て“0”)と定義する(図1
4のステップS61)。
The flowcharts shown in FIGS. 14 to 16 show an embodiment in which the correction value calculation unit 2 shown in FIG. 1 and the correction units 3-0 to 3-n are combined. First, the reference camera is used. The image data of K0 is F0 (704,480), and the image data of the camera Kn to be corrected is Fn (704,48).
0), the image data F0, and the vector obtained by the block matching of the image data Fn are Vnx (44,3
0), Vny (44, 30), and rotation parameters corresponding to each vector are V'11x to V'230x, V'11y to V'244y,
Threshold values THx, THy, check array Check (70
4, 480) (initial values are all "0") (Fig. 1
4 step S61).

【0059】まず、上記の第1の実施例に従い、画像デ
ータF0と画像データFnとのブロックマッチングによ
りベクトルVnx(44,30),Vny(44,3
0)を得る(同S62)。
First, according to the first embodiment described above, the vectors Vnx (44, 30) and Vny (44, 3) are obtained by block matching between the image data F0 and the image data Fn.
0) is obtained (at step S62).

【0060】次に、ステップS63でこの画像データF
nが基準画像データF0に対してどの程度回転している
かを示す回転パラメータV'11x〜V'230x ,V'11y〜
V'244y の値を計算する。これらの回転パラメータは、
画面の真中を原点とした時の上記ベクトルの概ねの回転
角(tanθ)を求めるための要素である。
Next, at step S63, this image data F
Rotation parameters V'11x to V'230x and V'11y to indicate how much n is rotated with respect to the reference image data F0.
Calculate the value of V'244y. These rotation parameters are
This is an element for obtaining the approximate rotation angle (tan θ) of the vector when the center of the screen is the origin.

【0061】即ち、回転パラメータV'11x〜V'230x ,
V'11y〜V'244y は、1画面を示す図17において斜線
で示したx方向及びy方向の中央部分(x方向はブロッ
ク22〜23、y方向はブロック15〜16)の全ベク
トルをそれぞれ中心から離れている座標で正規化したも
のである。
That is, the rotation parameters V'11x to V'230x,
V′11y to V′244y are all vectors of the central portions in the x direction and the y direction (blocks 22 to 23 in the x direction and blocks 15 to 16 in the y direction) indicated by diagonal lines in FIG. 17 showing one screen, respectively. It is normalized by the coordinates away from the center.

【0062】次に、このような回転パラメータV'11x〜
V'230x 、V'11y〜V'244y のそれぞれの平均値(1ブ
ロック当たりの回転パラメータ)VaxとVayを求め
る(図15のステップS64)。
Next, such a rotation parameter V'11x-
Average values (rotation parameters per block) Vax and Vay of V'230x and V'11y to V'244y are obtained (step S64 in FIG. 15).

【0063】そして更に、各回転パラメータV'11x〜
V'230x 、V'11y〜V'244y と平均値VaxとVayと
の絶対値誤差の平均値(分散値)VVAR yとVVAR xと
を求め(同S65)、これらの平均値VVAR yとVVAR
xがそれぞれ閾値THx、THyより小さいか否かを判
定し(同S66)、VVAR y>THxか又はVVAR x>
THyであれば分散が大きく回転パラメータが同じ方向
を向いていない(回転していない)と判断してこのルー
チンを出る(同S67)が、VVAR y<THx且つV
VAR x<THyであれば分散が小さく回転パラメータが
同じ方向を向いている(回転している)と判断して次の
補正を行う。
Further, each rotation parameter V'11x-
The average value (dispersion value) V VAR y and V VAR x of the absolute value error between V ′ 230x, V ′ 11y to V ′ 244y and the average value Vax and Vay is calculated (the same S65), and these average values V VAR y and V VAR
It is determined whether x is smaller than the threshold values THx and THy (S66 of the same), and V VAR y> THx or V VAR x>.
If THy, the variance is large and it is determined that the rotation parameters are not in the same direction (not rotating) and the routine exits (S67). However, V VAR y <THx and V
If VAR x <THy, it is determined that the dispersion is small and the rotation parameters are in the same direction (rotating), and the next correction is performed.

【0064】即ち、VaxとVayの平均値を全体の平
均値Vaとして、図17に示す回転角度θ=tan-1
aを求め(同S68)、周知の式に従い(同S69)、
補正前の画像データの座標Fn(x,y)から新座標
(X,Y)への変換を行い、補正後の画像データをF
(704,480)とする(同S70)。
That is, with the average value of Vax and Vay as the overall average value Va, the rotation angle θ = tan −1 V shown in FIG.
a is obtained (at step S68), according to a well-known formula (at step S69),
The coordinates Fn (x, y) of the image data before correction are converted to the new coordinates (X, Y), and the image data after correction is converted to F.
(704, 480) (at step S70).

【0065】このとき気を付けなければならないのは、
上記の座標変換によって、変換後の数値が存在しない画
素が現れてしまうことである。
At this time, it should be noted that
The above-mentioned coordinate conversion causes pixels having no converted numerical value to appear.

【0066】上記の図5(2) ではダミー値を挿入した
が、この実施例では、座標変換後の座標が図17に示す
ような数値が存在しない画素の部分A,B,C,D(有
効画素領域外とする)に属するか否かを判定し(図16
のステップS71〜74)、部分A〜Dに属しなけれ
ば、そのままの値を出力するが(同S75〜S82,S
84〜S87)、部分A〜Dに属する場合には、強制的
に上下左右からの画素の値の平均値をその画素の値とす
る(同S83)。
Although the dummy value is inserted in FIG. 5 (2), in this embodiment, the coordinates A, B, C, D (where the coordinates after the coordinate conversion have no numerical values as shown in FIG. It is determined whether or not it belongs to the area outside the effective pixel area) (see FIG.
Steps S71 to S74), if the values do not belong to the parts A to D, the value is output as it is (S75 to S82, S).
84 to S87) and belong to portions A to D, the average value of the pixel values from above, below, left and right is forcibly set as the pixel value (S83).

【0067】第3の実施例の回路ブロック例:図18 この回路例では、図10に示したブロックマッチング回
路1の出力信号Vx,Vyをカウンタ41,42と累積
部43,44と除算部45,46とを経由させることに
より平均値Vax,Vayを求め、比較器47,48で
の比較結果に基づきデコーダ49が補正回路50を制御
して座標変換した補正値F(x,y)を出力する。
Circuit block example of the third embodiment: FIG. 18 In this circuit example, the output signals Vx and Vy of the block matching circuit 1 shown in FIG. 10 are supplied to counters 41 and 42, accumulators 43 and 44, and divider 45. , 46 to obtain the average values Vax, Vay, and the decoder 49 controls the correction circuit 50 based on the comparison result in the comparators 47, 48 to output the correction value F (x, y) which is coordinate-converted. To do.

【0068】図19には上記の補正回路50の回路例が
示されており、平均値Vax,Vayを入力してtan
-1、sin、cos等三角関数を用いることにより、図
15及び図16のステップS68〜S87を実行してい
る。
FIG. 19 shows a circuit example of the above-mentioned correction circuit 50, in which the average values Vax and Vay are input and tan is inputted.
The steps S68 to S87 of FIGS. 15 and 16 are executed by using trigonometric functions such as −1 , sin, and cos.

【0069】尚、これら値は一度求めてしまえば、後の
フレームにおいて再び計算し直す必要が無くなる。
Note that once these values are obtained, there is no need to recalculate them in the subsequent frame.

【0070】また上記の各実施例については、カメラの
位置が頻繁に変わらない状況であれば、一度補正値を算
出すれば、あとは補正を行う処理だけ実行すればよい。
Further, in each of the above embodiments, if the position of the camera does not change frequently, once the correction value is calculated, only the correction processing need be executed.

【0071】[0071]

【発明の効果】以上のように、本発明に係る多眼式立体
映像の符号化方式によれば、複数のカメラからの多眼式
立体映像信号の内の所定のカメラからの映像信号を基準
として他のカメラからの映像信号とのブロックマッチン
グを取ることにより補正値を算出し、該補正値に基づき
各カメラからの映像信号を補正するように構成したの
で、視覚的に自然な立体視を得ることができ、また、左
右眼間の相関などを用いた高能率符号化を行った場合に
も符号化効率の向上を図ることができる。
As described above, according to the multi-view stereoscopic video encoding method of the present invention, the video signal from a predetermined camera among the multi-view stereoscopic video signals from a plurality of cameras is used as a reference. As a result, a correction value is calculated by performing block matching with the video signal from another camera, and the video signal from each camera is corrected based on the correction value, so that a visually natural stereoscopic vision can be achieved. Moreover, it is possible to improve the coding efficiency even when high-efficiency coding is performed using the correlation between the left and right eyes.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る多眼式立体映像の符号化方式を原
理的に示したブロック図である。
FIG. 1 is a block diagram showing the principle of a multi-view stereoscopic image encoding method according to the present invention.

【図2】本発明に係る多眼式立体映像の符号化方式にお
けるブロックマッチング部と補正値算出部の第1の実施
例を示すフローチャート図(その1)である。
FIG. 2 is a flowchart diagram (No. 1) showing the first embodiment of the block matching unit and the correction value calculating unit in the multi-view stereoscopic image encoding system according to the present invention.

【図3】本発明に係る多眼式立体映像の符号化方式にお
けるブロックマッチング部と補正値算出部の第1の実施
例を示すフローチャート図(その2)である。
FIG. 3 is a flowchart diagram (No. 2) showing the first embodiment of the block matching unit and the correction value calculation unit in the multi-view stereoscopic video encoding system according to the present invention.

【図4】多眼式立体映像を出力するカメラの配置図であ
る。
FIG. 4 is a layout view of a camera that outputs a multi-view stereoscopic image.

【図5】有効画素領域を説明するための図である。FIG. 5 is a diagram for explaining an effective pixel area.

【図6】本発明に係る多眼式立体映像の符号化方式の第
1の実施例で用いるヒストグラムを説明するためのグラ
フ図である。
FIG. 6 is a graph diagram for explaining a histogram used in the first embodiment of the multi-view stereoscopic image encoding method according to the present invention.

【図7】本発明に係る多眼式立体映像の符号化方式の各
実施例で用いるブロックマッチングを示すフローチャー
ト図である。
FIG. 7 is a flowchart showing block matching used in each embodiment of the multi-view stereoscopic video encoding method according to the present invention.

【図8】ブロックマッチングを説明するための模式図で
ある。
FIG. 8 is a schematic diagram for explaining block matching.

【図9】本発明に係る多眼式立体映像の符号化方式の第
1の実施例の回路ブロック図である。
FIG. 9 is a circuit block diagram of a first embodiment of a multi-view stereoscopic image encoding system according to the present invention.

【図10】ブロックマッチング回路の実施例を示すブロ
ック図である。
FIG. 10 is a block diagram showing an embodiment of a block matching circuit.

【図11】本発明に係る多眼式立体映像の符号化方式の
第1の実施例の変形例を示すフローチャート図である。
FIG. 11 is a flowchart showing a modified example of the first embodiment of the multi-view stereoscopic image encoding system according to the present invention.

【図12】本発明に係る多眼式立体映像の符号化方式に
おけるブロックマッチング部と補正値算出部の第2の実
施例を示すフローチャート図である。
FIG. 12 is a flowchart showing a second embodiment of the block matching unit and the correction value calculating unit in the multi-view stereoscopic image encoding system according to the present invention.

【図13】本発明に係る多眼式立体映像の符号化方式の
第2の実施例の回路ブロック図である。
FIG. 13 is a circuit block diagram of a second embodiment of a multi-view stereoscopic image encoding system according to the present invention.

【図14】本発明に係る多眼式立体映像の符号化方式に
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その1)である。
FIG. 14 is a flowchart diagram (No. 1) showing a third embodiment of the block matching unit and the correction value calculation unit in the multi-view stereoscopic image encoding system according to the present invention.

【図15】本発明に係る多眼式立体映像の符号化方式に
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その2)である。
FIG. 15 is a flowchart diagram (No. 2) showing the third embodiment of the block matching unit and the correction value calculating unit in the multi-view stereoscopic image encoding system according to the present invention.

【図16】本発明に係る多眼式立体映像の符号化方式に
おけるブロックマッチング部と補正値算出部の第3の実
施例を示すフローチャート図(その3)である。
FIG. 16 is a flowchart diagram (No. 3) showing the third embodiment of the block matching unit and the correction value calculation unit in the multiview stereoscopic image encoding system according to the present invention.

【図17】本発明に係る多眼式立体映像の符号化方式の
第3の実施例による回転検出を説明するためのグラフ図
である。
FIG. 17 is a graph diagram for explaining rotation detection according to a third embodiment of a multi-view stereoscopic image encoding method according to the present invention.

【図18】本発明に係る多眼式立体映像の符号化方式の
第3の実施例の回路ブロック図である。
FIG. 18 is a circuit block diagram of a third embodiment of a multi-view stereoscopic video encoding system according to the present invention.

【図19】本発明に係る多眼式立体映像の符号化方式の
第3の実施例における補正回路の回路ブロック図であ
る。
FIG. 19 is a circuit block diagram of a correction circuit in a third embodiment of the multi-view stereoscopic image encoding system according to the present invention.

【図20】多眼式立体映像の符号化方式の一般的な構成
を示したブロック図である。
[Fig. 20] Fig. 20 is a block diagram illustrating a general configuration of a multi-view stereoscopic video encoding method.

【図21】多眼式(5眼×5眼)のカメラ出力例を示し
た図である。
[Fig. 21] Fig. 21 is a diagram illustrating an example of camera output of a multi-view system (5 eyes x 5 eyes).

【符号の説明】[Explanation of symbols]

1 ブロックマッチング部 2 補正値算出部 3(3−0〜3−n) 補正部 4 符号化部 5 多重化部 K0〜Kn カメラ F0〜Fn 出力画像データ 図中、同一符号は同一又は相当部分を示す。 1 block matching unit 2 correction value calculation unit 3 (3-0 to 3-n) correction unit 4 encoding unit 5 multiplexing unit K0 to Kn camera F0 to Fn output image data Show.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 複数のカメラからの多眼式立体映像信号
(F1 〜Fn) の内の所定のカメラからの映像信号を基準と
して他のカメラからの映像信号とのブロックマッチング
を取るブロックマッチング部(1) と、 該ブロックマッチング部(1) でのマッチング結果情報か
ら各カメラ間の位置ズレを示す補正値を算出する補正値
算出部(2) と、 該補正値に基づき各カメラからの映像信号を補正する補
正部(3-0〜3-n)と、 各補正部(3-0〜3-n)の出力信号を符号化する符号化部
(4) と、 該符号化部(4) の各出力信号を多重化して伝送路に送出
する多重化部(5) と、 を備えたことを特徴とする多眼式立体映像の符号化方
式。
1. A multi-view stereoscopic video signal from a plurality of cameras
A block matching unit (1) that performs block matching with a video signal from another camera based on a video signal from a predetermined camera among (F1 to Fn), and a matching result in the block matching unit (1) A correction value calculation unit (2) that calculates a correction value indicating the positional deviation between the cameras from the information, and a correction unit (3-0 to 3-n) that corrects the video signal from each camera based on the correction value. Encoding unit that encodes the output signal of each correction unit (3-0 to 3-n)
(4) and a multiplexing unit (5) that multiplexes each output signal of the encoding unit (4) and sends out to a transmission line, and a multi-view stereoscopic video encoding system characterized by the following: .
【請求項2】 該補正値算出部(2) が、該マッチング結
果情報の上下方向のベクトル値を用いて上下方向への補
正値を算出することを特徴とした請求項1に記載の多眼
式立体映像の符号化方式。
2. The multi-lens according to claim 1, wherein the correction value calculation unit (2) calculates the correction value in the vertical direction by using the vector value in the vertical direction of the matching result information. A stereoscopic video coding method.
【請求項3】 該補正値算出部(2) が、該上下方向のベ
クトル値の発生頻度を参照して最も多く発生したベクト
ル値を該補正値とすることを特徴とした請求項2に記載
の多眼式立体映像の符号化方式。
3. The correction value calculation unit (2) refers to the frequency of occurrence of the vector values in the vertical direction, and sets the vector value generated most as the correction value. Multi-view stereoscopic video coding method.
【請求項4】 該補正値算出部(2) が、該上下方向のベ
クトル値の平均値を算出して該補正値とすることを特徴
とした請求項2に記載の多眼式立体映像の符号化方式。
4. The multi-view stereoscopic image according to claim 2, wherein the correction value calculation unit (2) calculates an average value of the vector values in the vertical direction and sets the average value as the correction value. Encoding method.
【請求項5】 該補正値算出部(2) が、各補正値間の差
が閾値内に収まっていることを判定することにより該基
準カメラのみがずれていることを検出し、該基準カメラ
に対する補正値を算出することを特徴とした請求項1に
記載の多眼式立体映像の符号化方式。
5. The correction value calculation unit (2) detects that only the reference camera is displaced by determining that the difference between the correction values is within a threshold value, and the reference camera 2. The multi-view stereoscopic video encoding method according to claim 1, wherein a correction value for is calculated.
【請求項6】 該補正値算出部(2) が、該基準カメラに
対する補正値として全補正値の平均値をとることを特徴
とした請求項5に記載の多眼式立体映像の符号化方式。
6. The encoding system for multi-view stereoscopic video according to claim 5, wherein the correction value calculation unit (2) takes an average value of all correction values as a correction value for the reference camera. .
【請求項7】 該補正値算出部(2) が、水平方向につい
ても同様の補正値を算出することを特徴とした請求項1
乃至6のいずれかに記載の多眼式立体映像の符号化方
式。
7. The correction value calculation unit (2) calculates the same correction value in the horizontal direction as well.
7. The encoding method for multi-view stereoscopic video according to any one of 1 to 6.
【請求項8】 該補正値算出部(2) が、該マッチング結
果情報のベクトルの画素毎の回転角を検出し、座標変換
により補正値を算出することを特徴とした請求項1に記
載の多眼式立体映像の符号化方式。
8. The correction value calculation unit (2) according to claim 1, wherein the correction value calculation unit (2) detects a rotation angle of each pixel of the vector of the matching result information and calculates a correction value by coordinate conversion. A multi-lens stereoscopic video coding method.
JP5587793A 1993-03-16 1993-03-16 Coding system for multi-eye stereoscopic video image Pending JPH06269025A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5587793A JPH06269025A (en) 1993-03-16 1993-03-16 Coding system for multi-eye stereoscopic video image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5587793A JPH06269025A (en) 1993-03-16 1993-03-16 Coding system for multi-eye stereoscopic video image

Publications (1)

Publication Number Publication Date
JPH06269025A true JPH06269025A (en) 1994-09-22

Family

ID=13011331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5587793A Pending JPH06269025A (en) 1993-03-16 1993-03-16 Coding system for multi-eye stereoscopic video image

Country Status (1)

Country Link
JP (1) JPH06269025A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304286B1 (en) 1995-06-09 2001-10-16 Pioneer Electronic Corporation Stereoscopic display apparatus for generating images in accordance with an observer's viewing position
WO2007069487A1 (en) * 2005-12-15 2007-06-21 The University Of Tokyo Compression-encoding method of multi-viewpoint images, and decoding method
US7817181B2 (en) 2004-01-20 2010-10-19 Sejong Industry - Academy Cooperation Foundation Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video
JP2010278979A (en) * 2009-06-01 2010-12-09 Nhk Media Technology Inc Stereoscopic video adjusting apparatus, stereoscopic video adjusting system, and program
WO2011102131A1 (en) * 2010-02-18 2011-08-25 パナソニック株式会社 Image encoding device, image encoding method, program and integrated circuit
JP2011205346A (en) * 2010-03-25 2011-10-13 Canon Inc Image processor and method for controlling image processor
US9225958B2 (en) 2012-03-15 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Video signal processor and method of processing video signal
US9986222B2 (en) 2013-03-21 2018-05-29 Panasonic Intellectual Property Management Co., Ltd. Image processing method and image processing device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6304286B1 (en) 1995-06-09 2001-10-16 Pioneer Electronic Corporation Stereoscopic display apparatus for generating images in accordance with an observer's viewing position
US7817181B2 (en) 2004-01-20 2010-10-19 Sejong Industry - Academy Cooperation Foundation Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video
WO2007069487A1 (en) * 2005-12-15 2007-06-21 The University Of Tokyo Compression-encoding method of multi-viewpoint images, and decoding method
JP2010278979A (en) * 2009-06-01 2010-12-09 Nhk Media Technology Inc Stereoscopic video adjusting apparatus, stereoscopic video adjusting system, and program
WO2011102131A1 (en) * 2010-02-18 2011-08-25 パナソニック株式会社 Image encoding device, image encoding method, program and integrated circuit
JP2011205346A (en) * 2010-03-25 2011-10-13 Canon Inc Image processor and method for controlling image processor
US9225958B2 (en) 2012-03-15 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Video signal processor and method of processing video signal
US9986222B2 (en) 2013-03-21 2018-05-29 Panasonic Intellectual Property Management Co., Ltd. Image processing method and image processing device

Similar Documents

Publication Publication Date Title
US8116557B2 (en) 3D image processing apparatus and method
US6314211B1 (en) Apparatus and method for converting two-dimensional image sequence into three-dimensional image using conversion of motion disparity into horizontal disparity and post-processing method during generation of three-dimensional image
JP5299214B2 (en) Image processing apparatus, image processing method, and program
JP5977752B2 (en) Video conversion apparatus and display apparatus and method using the same
JP5204350B2 (en) Imaging apparatus, playback apparatus, and image processing method
CN101933335B (en) Method and system for converting 2d image data to stereoscopic image data
JP5204349B2 (en) Imaging apparatus, playback apparatus, and image processing method
WO2010140332A1 (en) Stereoscopic image display apparatus
US20070052794A1 (en) 3D image processing apparatus and method
WO2011052389A1 (en) Image processing device and image processing method
JPWO2013108339A1 (en) Stereo camera
JPH06194602A (en) Binocular stereoscopic viewing device
CN102256143A (en) Video processing apparatus and method
WO2011125461A1 (en) Image generation device, method, and printer
JP2003061116A (en) Stereoscopic video image display device
JPH0698312A (en) High efficiency picture coding system
JPH06269025A (en) Coding system for multi-eye stereoscopic video image
WO2011061973A1 (en) Three-dimensional image display device and method of deriving motion vector
TWI491244B (en) Method and apparatus for adjusting 3d depth of an object, and method and apparatus for detecting 3d depth of an object
JP3080487B2 (en) Motion compensation prediction method for multi-view stereoscopic video
JP3150446B2 (en) Image efficient coding method
JP5347987B2 (en) Video processing device
KR20110025083A (en) Apparatus and method for displaying 3d image in 3d image system
Kim et al. Object-based stereoscopic conversion of MPEG-4 encoded data
TWI685242B (en) Generation method for multi-view auto stereoscopic images and displaying method and electronic apparatus thereof

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20011218