JPH1032840A - Multi-viewpoint image transmission and display method - Google Patents

Multi-viewpoint image transmission and display method

Info

Publication number
JPH1032840A
JPH1032840A JP8359997A JP8359997A JPH1032840A JP H1032840 A JPH1032840 A JP H1032840A JP 8359997 A JP8359997 A JP 8359997A JP 8359997 A JP8359997 A JP 8359997A JP H1032840 A JPH1032840 A JP H1032840A
Authority
JP
Japan
Prior art keywords
image
parallax
images
disparity
initial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8359997A
Other languages
Japanese (ja)
Other versions
JP3477023B2 (en
Inventor
Takeo Azuma
健夫 吾妻
Kenya Uomori
謙也 魚森
Atsushi Morimura
森村  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP08359997A priority Critical patent/JP3477023B2/en
Publication of JPH1032840A publication Critical patent/JPH1032840A/en
Application granted granted Critical
Publication of JP3477023B2 publication Critical patent/JP3477023B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To decide a distance of observation with high accuracy to render the same angle of visibility as that of a photographing mode by transmitting a photographing surface size of a camera, te distance between the photographing surface and a center of a lens and the information on the lens focal length respectively after adding them together. SOLUTION: A parallax estimation means 2 calculates a parallax for every pixel from a right and a left image which are decoded by an image decoder means 1. That is, both upper and lower limit numbers for pixels of parallax are decided, based on a the position relationship among a depth value of the nearest point, the depth value of the farthest point and the width value of the congestion point in an image. An average parallax arithmetic means 3 calculates an average of parallax calculated by the means 2. The image shift means 4a and 4b shift the images, so as to display the depth point having the average parallax obtained by the means 3 in the same depth as a display screen. Thus, it is possible to display without producing eye fatigue caused on the display side, by adding together the information on both nearest and farthest points in an image when a multi-viewpoint image is transmitted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、多視点画像の伝送
方法及び多視点画像の表示方法に関する。また、本発明
は、多視点画像の中間視点画像生成方法及び視差推定方
法及びその装置に関するものである。
The present invention relates to a method for transmitting a multi-viewpoint image and a method for displaying a multi-viewpoint image. The present invention also relates to a method for generating an intermediate viewpoint image of a multi-view image, a method for estimating disparity, and an apparatus thereof.

【0002】[0002]

【従来の技術】従来、立体映像方式には様々なものが提
案されているが、特殊な眼鏡をかけることなく立体動画
像を複数人数で観察できる方式として、多視点画像によ
る多眼式立体映像方式が有望である。多眼式立体映像方
式においては、使用するカメラ台数及び表示装置台数が
多いほど、観察者に対して自然な運動視差を感じさせる
ことができ、また、多人数での観察が容易になる。しか
しながら、撮像系の規模やカメラの光軸の設定等の制約
により、実用的に用いることができるカメラ台数には限
度がある。また、伝送、蓄積過程においては、カメラ台
数に比例して増大する情報量を低減することが望まれ
る。
2. Description of the Related Art Conventionally, various types of stereoscopic video systems have been proposed. A multi-view stereoscopic video using a multi-viewpoint image has been proposed as a system that allows a plurality of persons to observe a stereoscopic video without wearing special glasses. The scheme is promising. In the multi-view stereoscopic video system, the more the number of cameras and the number of display devices used, the more the observer can feel natural motion parallax and the easier the observation by a large number of people. However, the number of cameras that can be used practically is limited due to restrictions such as the size of the imaging system and the setting of the optical axis of the camera. In the transmission and storage processes, it is desired to reduce the amount of information that increases in proportion to the number of cameras.

【0003】そこで、表示側において、2眼式ステレオ
画像から中間視点画像を生成することにより多眼式立体
画像を表示できれば、撮像系の負担を軽減し、伝送、蓄
積時の情報量を低減することができることになる。視点
の異なる複数の画像から、その異なる視点間の任意の視
点で見えるべき中間視点画像を生成するためには、画像
間で画素の対応を求めて奥行きを推定する必要がある。
Therefore, if a multi-view stereoscopic image can be displayed by generating an intermediate viewpoint image from a binocular stereo image on the display side, the load on the imaging system is reduced, and the amount of information during transmission and storage is reduced. You can do it. In order to generate an intermediate viewpoint image to be viewed at an arbitrary viewpoint between different viewpoints from a plurality of images having different viewpoints, it is necessary to estimate the depth by obtaining a correspondence between pixels between the images.

【0004】また、動画像をデジタル伝送するための画
像圧縮方式として、MPEG−1、MPEG−2が提案
されている。さらに、MPEG−2を拡張して多視点画
像を伝送する試みも行われている(ISO/IEC13818-2/PDA
M3)。図28は、MPEG−2シンタックスの概略図で
ある。MPEG−2による伝送は、Sequence、GOP
(Group Of Picture)、Picture という階層構造を持つ
画像データの符号化、復号化によって行われる。ISO/IE
C13818-2/PDAM3によると、MPEG−2の拡張による多
視点画像の伝送は、(明記されていないためはっきりし
ないが)GOP層を拡張して実現されるようである。
[0004] MPEG-1 and MPEG-2 have been proposed as image compression systems for digitally transmitting moving images. Further, attempts have been made to extend multi-view images by extending MPEG-2 (ISO / IEC13818-2 / PDA).
M3). FIG. 28 is a schematic diagram of the MPEG-2 syntax. MPEG-2 transmission includes Sequence, GOP
This is performed by encoding and decoding image data having a hierarchical structure of (Group Of Picture) and Picture. ISO / IE
According to C13818-2 / PDAM3, the transmission of a multi-view image by extension of MPEG-2 seems to be realized by extending the GOP layer (although it is not clear because it is not specified).

【0005】図29は、伝送される多視点画像の時空間
方向の関係を示すものである。従来のMPEG−2で用
いられてきた動き補償に加えて、視差補償を用いること
によって符号化効率を高めようとしている。多視点画像
を伝送する際には、各カメラに関する情報(カメラの位
置、カメラの光軸の向き等のカメラパラメータ)を付加
して伝送する必要がある。ISO/IEC13818-2/PDAM3には、
カメラパラメータは図28のPic.Extension(Picture層
の拡張)に含めて伝送することが述べられているが、具
体的なカメラパラメータの記述については述べられてい
ない。
[0005] Fig. 29 shows the relationship in the spatio-temporal direction of a transmitted multi-viewpoint image. An attempt is made to increase coding efficiency by using disparity compensation in addition to motion compensation used in conventional MPEG-2. When transmitting a multi-viewpoint image, it is necessary to add information on each camera (camera parameters such as the position of the camera and the direction of the optical axis of the camera) and transmit the information. ISO / IEC13818-2 / PDAM3 includes:
It is described that the camera parameters are transmitted by being included in Pic.Extension (extension of the Picture layer) in FIG. 28, but the description of specific camera parameters is not described.

【0006】カメラパラメータの記述に関しては、CG
言語であるOpenGLにおいて、カメラの位置、カメ
ラの光軸の向き、カメラの位置と画像面との距離がカメ
ラパラメータとして定義されている(「オープン ジー
エル プログラミングガイド」(OpenGL Programming Gu
ide,The Official Guide to Learning OpenGL,Release
1,Addison-Wesley Publishing Company,1993))。
For description of camera parameters, see CG
In OpenGL, which is a language, the position of the camera, the direction of the optical axis of the camera, and the distance between the position of the camera and the image plane are defined as camera parameters (see “OpenGL Programming Guide”).
ide, The Official Guide to Learning OpenGL, Release
1, Addison-Wesley Publishing Company, 1993)).

【0007】図30は、OpenGLによるカメラパラ
メータの定義を示す説明図である。図30において、A
はレンズ中心、Bは画像面(すなわち撮像面)の中心、
CはBから画像上端におろした垂線と画像上端の交点を
示す。A,B,Cの座標値はそれぞれ、(optical_cent
er_X,optical_center_Y,optical_center_Z),(image_p
lane_center_X,image_plane_center_Y,image_plane_cen
ter_Z),(image_plane_vertical_X,image_plane_verti
cal_Y,image_plane_vertical_Z)として定義されてい
る。
FIG. 30 is an explanatory diagram showing the definition of camera parameters by OpenGL. In FIG. 30, A
Is the center of the lens, B is the center of the image plane (that is, the imaging plane),
C indicates the intersection of the perpendicular drawn from B to the upper end of the image and the upper end of the image. The coordinate values of A, B, and C are (optical_cent
er_X, optical_center_Y, optical_center_Z), (image_p
lane_center_X, image_plane_center_Y, image_plane_cen
ter_Z), (image_plane_vertical_X, image_plane_verti
cal_Y, image_plane_vertical_Z).

【0008】上記のOpenGLで定義されるカメラパ
ラメータの情報をPic.Extensionに付加して多視点画像
を伝送することが容易に考えられる。
[0008] It is easy to add a camera parameter information defined by the above OpenGL to Pic.Extension to transmit a multi-viewpoint image.

【0009】[0009]

【発明が解決しようとする課題】しかしながら上記のよ
うな従来の方法では、画像内の最近点、最遠点(すなわ
ち被写体の最近点、最遠点)に関する情報がないため、
表示時に目の疲れにくい表示(例えば視差制御)を行お
うとする際に、どの奥行き範囲に対して行えばよいのか
わからないという課題を有していた。
However, in the conventional method as described above, since there is no information on the closest point and the farthest point in the image (that is, the closest point and the farthest point of the subject),
When performing display (for example, parallax control) in which the eyes are hardly tired at the time of display, there is a problem that it is difficult to know which depth range to perform.

【0010】また、多視点画像を表示する際には、撮影
時の視野角や撮像面のサイズ、レンズ中心と撮像面との
距離等の条件をもとに、観察距離を適切に決定する必要
がある(視差がつきすぎて違和感のある表示や、逆に立
体感の乏しい表示にならないようにするため)。しか
し、OpenGLでは、撮像面の大きさ(CCDの物理
的なサイズ)が定義されておらず、また、レンズ中心と
結像面との距離をレンズの焦点距離と常に等しいものと
して扱っている。そのため、撮像時の視野角の大きさが
表示側ではわからず、表示時の適切な視野角すなわち適
切な観察距離を決定できず、違和感のある立体表示とな
る可能性があるという課題を有していた。
When displaying a multi-viewpoint image, it is necessary to appropriately determine the observation distance based on conditions such as the viewing angle at the time of photographing, the size of the imaging surface, and the distance between the lens center and the imaging surface. (In order to prevent a display with a sense of incongruity due to too much parallax or a display with a poor stereoscopic effect). However, in OpenGL, the size of the imaging surface (the physical size of the CCD) is not defined, and the distance between the center of the lens and the image forming surface is always equal to the focal length of the lens. For this reason, the size of the viewing angle at the time of image capture is not known on the display side, and an appropriate viewing angle at the time of display, that is, an appropriate observation distance cannot be determined. I was

【0011】本発明はかかる点に鑑み、画像内の最近
点、最遠点(即ち被写体の最近点、最遠点)に関する情
報と、撮像面の大きさに関する情報とを画像情報に付加
して伝送を行うことにより、表示側で違和感の少ない立
体表示を行うことが容易な多視点画像の伝送及び表示方
法を提供することを目的とする。
In view of the above, the present invention adds information about the nearest point and the farthest point in an image (that is, the nearest point and the farthest point of the subject) and information about the size of the imaging surface to the image information. It is an object of the present invention to provide a method of transmitting and displaying a multi-viewpoint image in which it is easy to perform stereoscopic display with less discomfort on the display side by performing transmission.

【0012】また、中間視点画像生成のための画像間の
対応づけにおける根本的な問題は、奥行きが不連続に変
化する物体輪郭線において、オクルージョンが生じるた
めに画像間の対応を精度よく求めるのは困難なことであ
る。しかし、この物体輪郭線近傍での視差の推定値は、
生成される中間視点画像における物体の輪郭位置を決定
するため、中間視点画像の合成時には非常に重要であ
る。すなわち、視差推定時に物体輪郭線近傍で視差の推
定誤差が生じると、前景領域の画素が背景側にはりつい
たり、逆に背景領域の画素が前景にはりつき、物体の輪
郭線が乱れたり、物体輪郭線近傍の背景領域に偽輪郭が
生じることになる。
A fundamental problem in associating images for generating an intermediate viewpoint image is that occlusion occurs in an object contour whose depth varies discontinuously. Is difficult. However, the estimated value of parallax near this object contour is
Since the contour position of the object in the generated intermediate viewpoint image is determined, it is very important when synthesizing the intermediate viewpoint image. In other words, if a parallax estimation error occurs near the object contour during parallax estimation, pixels in the foreground area will stick to the background side, and pixels in the background area will stick to the foreground, and the contour of the object will be disturbed. False contours will occur in the background area near the line.

【0013】本発明はかかる点に鑑み、物体輪郭線近傍
での視差の急激な変化(不連続な変化)を精度よく推定
する視差推定方法およびその装置を提供することを目的
とする。
In view of the foregoing, it is an object of the present invention to provide a parallax estimation method and apparatus for accurately estimating a rapid change (discontinuous change) in parallax near an object contour.

【0014】[0014]

【課題を解決するための手段】本発明は、多視点画像の
ヘッダに、画像内の最近点、最遠点(すなわち被写体の
最近点、最遠点)に関する情報と、撮像面の大きさに関
する情報とを含む画像伝送方法により、画像内の最近
点、最遠点(すなわち被写体の最近点、最遠点)に関す
る情報と、撮像面の大きさに関する情報とを付加した多
視点画像の伝送を行い、表示側における画像サイズ、観
察距離を考慮した表示を可能とすることができる。
According to the present invention, a header of a multi-viewpoint image includes information on the nearest point and the farthest point (that is, the nearest point and the farthest point of the subject) in the image and the size of the imaging surface. With the image transmission method including the information, the transmission of the multi-viewpoint image to which the information on the nearest point and the farthest point in the image (that is, the nearest point and the farthest point of the subject) and the information on the size of the imaging surface are added. By doing so, it is possible to perform display in consideration of the image size and observation distance on the display side.

【0015】また、本発明は、初期視差と初期視差の信
頼性評価値とを計算し、その信頼性評価値とエッジ検出
結果とを用いて、視差が不連続に変化する物体輪郭線を
抽出し、信頼性評価値から初期視差の信頼性の低い領域
を抽出し、その抽出した初期視差の信頼性の低い領域で
の視差を、周囲の視差と滑らかに接続し、かつ、物体輪
郭線において変化するように決定することにより、物体
輪郭線において不連続に変化する視差推定を行うことを
特徴とする視差推定方法およびその装置である。
Further, the present invention calculates an initial parallax and a reliability evaluation value of the initial parallax, and extracts an object contour line in which the parallax changes discontinuously using the reliability evaluation value and an edge detection result. Then, extract the low-reliability region of the initial parallax from the reliability evaluation value, and smoothly connect the extracted parallax in the low-reliability region of the initial parallax to the surrounding parallax, and A disparity estimation method and apparatus for performing disparity estimation that changes discontinuously in an object contour by determining the disparity to change.

【0016】[0016]

【発明の実施の形態】以下に、本発明をその実施の形態
を示す図面に基づいて説明する。 (第1の実施の形態)図4は、本発明の第1の実施の形
態における画像伝送方法で定義するパラメータを示す図
である。図4において、A1,A2はカメラのレンズ中心の
位置を示し、B1,B2は撮像面の中心を示す(説明を簡単
にするために、撮像面をレンズ中心に対して被写体側に
折り返して考えている)。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings showing an embodiment. (First Embodiment) FIG. 4 is a diagram showing parameters defined by an image transmission method according to a first embodiment of the present invention. In FIG. 4, A1 and A2 indicate the positions of the centers of the lenses of the camera, and B1 and B2 indicate the centers of the imaging planes. ing).

【0017】OpenGLでは図4のA1B1,A2B2の距離
をカメラのレンズの焦点距離として定義しているが、本
発明においては、カメラのレンズ中心と撮像面の距離を
該レンズの焦点距離とは独立に定義する。この定義によ
り、合焦時のレンズ中心と撮像面との距離を被写体の距
離に応じて計算でき、正確な視野角を計算できる。視野
角は、撮像面のサイズと、レンズ中心と撮像面との距離
から計算できる。
In OpenGL, the distance between A1B1 and A2B2 in FIG. 4 is defined as the focal length of the camera lens. However, in the present invention, the distance between the center of the camera lens and the imaging surface is independent of the focal length of the lens. Defined in With this definition, the distance between the lens center and the imaging surface at the time of focusing can be calculated according to the distance to the subject, and the accurate viewing angle can be calculated. The viewing angle can be calculated from the size of the imaging surface and the distance between the lens center and the imaging surface.

【0018】以下に図2を用いて、合焦時のレンズ中心
と撮像面との距離が、被写体とレンズ中心との距離によ
って変化することを説明する。図2は、被写体の位置、
合焦時の撮像面の位置と焦点距離の関係を示す図であ
る。図2において、Aは被写体の位置、BはAからの光
が結像する点、Oはレンズの中心、Fは平行光がレンズ
により結像する点、aは被写体とレンズ中心Oとの距
離、bはAからの光が結像する点Bとレンズ中心Oとの
距離、fはレンズの焦点距離を示す。a,b,fの間に
は(数1)の関係が成り立つことが知られている。
Hereinafter, a description will be given of how the distance between the lens center and the imaging surface at the time of focusing changes with the distance between the subject and the lens center with reference to FIG. FIG. 2 shows the position of the subject,
FIG. 4 is a diagram illustrating a relationship between a position of an imaging surface and a focal length during focusing. In FIG. 2, A is the position of the subject, B is the point where light from A forms an image, O is the center of the lens, F is the point where parallel light forms an image with the lens, and a is the distance between the subject and the center O of the lens. , B indicate the distance between the point B where the light from A forms an image and the center O of the lens, and f indicates the focal length of the lens. It is known that the relationship of (Equation 1) holds between a, b, and f.

【0019】[0019]

【数1】 (Equation 1)

【0020】(数1)より、被写体が焦点距離を無視で
きるくらいレンズから遠い(a>>f)場合には、1/a
→ 0となりb = fと近似できる。しかし、被写体が
比較的レンズに近い場合には、1/aの項を無視でき
ず、b≠fとなる。従って、被写体が比較的レンズに近
い場合にも正しく視野角を計算するためには、レンズ中
心と結像面との距離を焦点距離とは独立に定義する必要
がある。そして、撮像面の幅をwin、高さをhinとする
と、撮像時の視野角は(数2)で表される。
From equation (1), if the object is far from the lens (a >> f) so that the focal length can be ignored, 1 / a
→ 0, which can be approximated as b = f. However, when the subject is relatively close to the lens, the term 1 / a cannot be ignored and b ≠ f. Therefore, in order to correctly calculate the viewing angle even when the subject is relatively close to the lens, it is necessary to define the distance between the lens center and the imaging plane independently of the focal length. Then, assuming that the width of the imaging surface is win and the height is hin, the viewing angle at the time of imaging is represented by (Equation 2).

【0021】[0021]

【数2】 (Equation 2)

【0022】よって、表示時の画像の幅をwout、高さ
をhoutとすると、撮像時の視野角を再現する観察距離
は、
Therefore, if the width of the image at the time of display is wout and the height is hout, the observation distance for reproducing the viewing angle at the time of imaging is:

【0023】[0023]

【数3】 (Equation 3)

【0024】となる。## EQU1 ##

【0025】次に、画像内の最近点、最遠点に基づく表
示側における見やすさの改善について説明する。図3
は、2つのプロジェクタを用いて輻輳投影をする場合の
輻輳距離、最近点、最遠点の位置関係を説明するための
図である。図3において、Cは輻輳点、Aは最近点、B
は最遠点を示す。
Next, the improvement of the visibility on the display side based on the nearest point and the farthest point in the image will be described. FIG.
FIG. 4 is a diagram for explaining a positional relationship between a convergence distance, a nearest point, and a farthest point when convergence projection is performed using two projectors. In FIG. 3, C is the congestion point, A is the nearest point, B
Indicates the farthest point.

【0026】輻輳のある投射においては、観察者が輻輳
点Cを見る場合に視差が0となる(図3において、両眼
とも画像の中心を見ることになるので、左右の目が見る
画像内の相対的な位置の違いはなくなる)。そして、最
近点Aを見る場合にはいわゆる寄り目の状態となり、画
像上で寄り目の方向にDaの視差が生じる。図3におい
て観察者は、輻輳点Cを見るときと比べて、両目とも内
側にDa/2ずれた点を見る。また、逆に最遠点Bを見
る場合にはいわゆる離れ目の状態となり、画像上で離れ
目の方向にDbの視差が生じる。
In a projection with convergence, the parallax becomes 0 when the observer views the convergence point C. (In FIG. 3, since both eyes look at the center of the image, the left and right eyes see in the image that the left and right eyes see. Differences in the relative position of are eliminated). When the closest point A is viewed, a so-called cross-eyed state occurs, and a parallax of Da occurs in the direction of the cross-hair on the image. In FIG. 3, the observer sees a point shifted by Da / 2 toward the inside of both eyes as compared with the case of viewing the convergence point C. On the other hand, when the farthest point B is viewed, a so-called distant eye state occurs, and a parallax of Db occurs in the direction of the distant eye on the image.

【0027】また、図1は平行投影の場合の最近点、最
遠点、観察者の輻輳と調節が一致する点の位置関係を示
す図である。図1において、Aは表示される画像の最近
点、Bは最遠点、Cは観察者の輻輳と調節が一致する点
を示す。図1に示す平行投影の場合、Dc の視差がある
画像を表示すると、スクリーン上では同じ点に表示さ
れ、観察者の輻輳と調節が一致する。
FIG. 1 is a diagram showing the positional relationship between the nearest point, the farthest point, and the point where the convergence of the observer and the adjustment coincide in the case of parallel projection. In FIG. 1, A indicates the closest point of the displayed image, B indicates the farthest point, and C indicates the point at which the convergence and adjustment of the observer coincide. In the case of the parallel projection shown in FIG. 1, when an image having a parallax of Dc is displayed, it is displayed at the same point on the screen, and the observer's convergence and accommodation coincide.

【0028】上述の図3と図1の画像内における視差
は、観察者にスクリーン面(Cを含む面)に対して手前
か奥かという立体感として知覚されるが、視差が大きく
なると融合しなくなったり(2重に見える状態)、観察
者に違和感・不快感を与えたりする。
The above-described parallax in the images shown in FIGS. 3 and 1 is perceived by the observer as a three-dimensional effect of being closer to or farther from the screen surface (the surface including C). It disappears (in a state of double appearance) and gives the observer a feeling of strangeness and discomfort.

【0029】観察者の見やすさの改善は、最近点、最遠
点、撮像時の輻輳点をもとに、画像を図3に示す方向
(画像1、画像2を各々の投射軸の垂直面内で水平方
向)にずらすことにより、輻輳点と最遠距離、最近距離
との位置関係を変化させることで可能となる。画像のず
らし方については、例えば画像間の視差の平均値を相殺
するようにずらすことによって、画像全体を均一に見や
すくできる。
Improvement of the viewability of the observer is based on the closest point, the farthest point, and the point of convergence at the time of image pickup. (Horizontal direction), it is possible to change the positional relationship between the convergence point, the farthest distance, and the closest distance. As for the way of shifting the image, for example, the entire image can be uniformly viewed by shifting the average value of the parallax between the images to cancel each other.

【0030】図5は、そのような処理のブロック図であ
る。図5では、簡単のために2眼式(2視点)のデータ
についての例を示している。図5において、1は画像復
号手段、2は視差推定手段、3は平均視差演算手段、4
a,4bは画像シフト手段、5a,5bは画像表示手段
である。以下に各手段の動作について説明する。
FIG. 5 is a block diagram of such a process. FIG. 5 shows an example of binocular (two viewpoints) data for simplicity. In FIG. 5, 1 is an image decoding unit, 2 is a parallax estimating unit, 3 is an average parallax calculating unit,
Reference numerals a and 4b denote image shift means, and reference numerals 5a and 5b denote image display means. The operation of each means will be described below.

【0031】画像復号手段1は、送信側で符号化された
多視点画像データを受信し、これを復号する。画像復号
手段1により復号された左右の画像は視差推定手段2に
送られる。視差推定手段2は、画像復号手段1によって
復号された左右の画像から各画素における視差(視差地
図)を計算する。例えば、左画像を基準としてブロック
マッチングにより視差を計算する場合について、図6を
用いて以下に説明する。まず、左画像中に窓領域を設定
する。次に、(数4)に示す残差平方和(SSD)を計算
する。
The image decoding means 1 receives multi-view image data encoded on the transmission side and decodes the data. The left and right images decoded by the image decoding unit 1 are sent to the parallax estimation unit 2. The disparity estimation unit 2 calculates a disparity (disparity map) at each pixel from the left and right images decoded by the image decoding unit 1. For example, a case where the parallax is calculated by block matching based on the left image will be described below with reference to FIG. First, a window area is set in the left image. Next, the residual sum of squares (SSD) shown in (Equation 4) is calculated.

【0032】[0032]

【数4】 (Equation 4)

【0033】(数4)の計算は、dminからdmaxの範囲の
dについて1画素間隔で計算する。そして、dminからdm
axの範囲でSSDを最小にするdの値を、設定した窓領
域での視差とする。画像の各画素における視差は、窓領
域を順次ずらして設定し、上記の計算をすることによっ
て得られる。
The calculation of (Equation 4) is performed at one pixel intervals for d in the range from dmin to dmax. And dmin to dm
The value of d that minimizes the SSD in the range of ax is set as the parallax in the set window area. The parallax at each pixel of the image is obtained by sequentially shifting the window regions and performing the above calculation.

【0034】SSDを計算する範囲dmin、dmaxは、最近
点、最遠点の情報より計算できる。図7、図8を用い
て、平行撮影時と輻輳撮影時の場合のdmin、dmaxの求め
方について以下に説明する。
The ranges dmin and dmax for calculating the SSD can be calculated from information on the nearest point and the farthest point. With reference to FIGS. 7 and 8, a method of obtaining dmin and dmax in the case of parallel shooting and the case of convergence shooting will be described below.

【0035】図7は、平行撮影の場合を示す図である。
図7に示す座標系において、左右のレンズ中心の座標値
を(−D/2,0)、(D/2,0)、撮像面とレンズ
中心との距離をb、3次元空間中の物体位置の水平座標
値をX0 、奥行き方向の座標値をZ0 、左右の撮像面で
位置(X0、Z0)の物体からの光が撮像される水平位置
をそれぞれxl0, xr0とする(xl0, xr0はカメラの光
軸と撮像面の交点を原点とする平面座標系の水平座標)
と、図形的な関係より、
FIG. 7 is a diagram showing the case of parallel photographing.
In the coordinate system shown in FIG. 7, the coordinate values of the left and right lens centers are (−D / 2, 0) and (D / 2, 0), the distance between the imaging surface and the lens center is b, and the object in the three-dimensional space The horizontal coordinate value of the position is X0, the coordinate value in the depth direction is Z0, and the horizontal position where light from the object at the position (X0, Z0) is imaged on the left and right imaging planes is xl0 and xr0, respectively (xl0, xr0 is Horizontal coordinates in a plane coordinate system with the origin at the intersection of the camera's optical axis and the imaging plane)
And from the graphical relationship,

【0036】[0036]

【数5】 (Equation 5)

【0037】となる。よって、左右の画像を基準とした
視差はそれぞれ、(数6)に示す式で表される。
Is as follows. Therefore, each of the parallaxes based on the left and right images is represented by the equation shown in (Equation 6).

【0038】[0038]

【数6】 (Equation 6)

【0039】ここで、画像中の最近点の奥行き値をZmi
n、最遠点の奥行き値をZmaxとすると、SSDを計算す
る範囲の上限dmaxと下限dminは(数7)で表される。
Here, the depth value of the nearest point in the image is Zmi
Assuming that n and the depth value of the farthest point are Zmax, the upper limit dmax and the lower limit dmin of the SSD calculation range are represented by (Equation 7).

【0040】[0040]

【数7】 (Equation 7)

【0041】また、図8は輻輳撮影の場合を示す図であ
る。図8に示す座標系において、輻輳点(左右のカメラ
の光軸の交点)の座標値を(0,C)、左右のレンズ中
心の座標値を(−D/2,0)、(D/2,0)、撮像
面とレンズ中心との距離をb、3次元空間中の物体位置
の水平座標値をX0、奥行き方向の座標値をZ0、左右の
撮像面で位置(X0、Z0)の物体からの光が撮像される
水平位置をそれぞれxl0,xr0とする(xl0,xr0はカ
メラの光軸と撮像面の交点を原点とする平面座標系の水
平座標)と、図形的な関係より、
FIG. 8 is a diagram showing a case of convergence photographing. In the coordinate system shown in FIG. 8, the coordinates of the convergence point (the intersection of the optical axes of the left and right cameras) are (0, C), the coordinates of the center of the left and right lenses are (−D / 2, 0), and (D / 2,0), the distance between the imaging surface and the lens center is b, the horizontal coordinate value of the object position in the three-dimensional space is X0, the coordinate value in the depth direction is Z0, and the position (X0, Z0) is on the left and right imaging surfaces. The horizontal position where light from the object is imaged is assumed to be x10 and xr0, respectively (xl0 and xr0 are the horizontal coordinates of a plane coordinate system whose origin is the intersection of the optical axis of the camera and the imaging surface) and

【0042】[0042]

【数8】 (Equation 8)

【0043】となる。したがって、左右の画像を基準と
した時の視差はそれぞれ、(数9)に示す式で表され
る。
Is as follows. Therefore, the parallax based on the left and right images is represented by the equation shown in (Equation 9).

【0044】[0044]

【数9】 (Equation 9)

【0045】(数9)の式中にX0が残っていることか
ら、輻輳撮像では奥行きが同じであっても、水平方向の
位置によって視差が異なる(即ち、再生される立体像が
歪む)ことがわかる。今、簡単のためにX0=0(即ち
Z軸)上の点における視差を考えると、(数9)にX0
=0を代入して(数10)を得る。
Since X0 remains in the equation (Equation 9), in the convergence imaging, even if the depth is the same, the parallax differs depending on the horizontal position (that is, the reproduced stereoscopic image is distorted). I understand. Now, for the sake of simplicity, considering the parallax at a point on X0 = 0 (that is, the Z axis),
= 0 to obtain (Equation 10).

【0046】[0046]

【数10】 (Equation 10)

【0047】(数10)より、画像中の最近点の奥行き
値Zmin、最遠点の奥行き値Zmax、輻輳点の奥行き値C
の位置関係と、水平画素数nx、撮像面(CCD)の幅w
inから視差の上限画素数dmax、下限画素数dminを決定で
きる。
From equation (10), the depth value Zmin of the closest point in the image, the depth value Zmax of the farthest point, and the depth value C of the convergence point are obtained.
, The number of horizontal pixels nx, and the width w of the imaging surface (CCD)
The upper limit pixel number dmax and the lower limit pixel number dmin of parallax can be determined from in.

【0048】Z軸上以外の点における視差を考慮する場
合には、(数9)の最大値、最小値を計算することによ
って、視差の上限dmax、下限dminを決定できる。
When the parallax at a point other than on the Z axis is considered, the upper limit dmax and the lower limit dmin of the parallax can be determined by calculating the maximum value and the minimum value of (Equation 9).

【0049】以上説明したように、画像中の最近点の奥
行き値、最遠点の奥行き値、カメラの位置、カメラの光
軸の向きが与えられると、視差の取るべき値の範囲を計
算でき、視差演算時にSSDを計算する範囲を決定でき
る。平均視差演算手段3は、視差推定手段2によって計
算された視差地図の平均を演算する。視差地図の平均は
(数11)を計算することによって得られる。
As described above, given the depth value of the nearest point in the image, the depth value of the farthest point, the position of the camera, and the direction of the optical axis of the camera, the range of values for which parallax should be obtained can be calculated. , The range in which the SSD is calculated during the parallax calculation can be determined. The average parallax calculating means 3 calculates an average of the parallax maps calculated by the parallax estimating means 2. The average of the disparity map is obtained by calculating (Equation 11).

【0050】[0050]

【数11】 [Equation 11]

【0051】画像シフト手段4a、4bは、平均視差演
算手段3によって得られる平均視差を有する奥行きの点
が、表示面と同じ奥行き(すなわち表示面上で視差0と
なるように)に表示されるように画像をシフトする。
The image shifting means 4a and 4b display the depth point having the average parallax obtained by the average parallax calculating means 3 at the same depth as the display surface (that is, with no parallax on the display surface). Shift the image as follows.

【0052】平行投影による表示を示す図1において、
Aは表示する画像中の最近点の奥行き、Bは最遠点の奥
行き、Cは平均視差の奥行きを示す。図1から、平行投
影では左右の画像間で(数12)で示すDc の視差があ
る場合に、スクリーン上で視差がなくなり、輻輳と調節
が一致した自然な表示となることがわかる。
In FIG. 1 showing display by parallel projection,
A indicates the depth of the nearest point in the displayed image, B indicates the depth of the farthest point, and C indicates the depth of the average parallax. From FIG. 1, it can be seen that in the parallel projection, when there is a parallax of Dc shown by (Equation 12) between the left and right images, the parallax disappears on the screen, and a natural display in which the convergence and the adjustment are matched is obtained.

【0053】[0053]

【数12】 (Equation 12)

【0054】画像シフト手段4aは、(数13)に示す
シフト量(右方向へのシフトを正としている)だけ左画
像をシフトする。
The image shift means 4a shifts the left image by the shift amount (the rightward shift is positive) shown in (Expression 13).

【0055】[0055]

【数13】 (Equation 13)

【0056】そして、画像シフト手段4bは、逆方向に
同じ量だけ右画像をシフトする。画像シフト手段4aお
よび4bによるシフトの結果、平均視差を有する点がス
クリーンと同一の奥行きに表示されるようになる。
Then, the image shift means 4b shifts the right image by the same amount in the reverse direction. As a result of the shift by the image shifting means 4a and 4b, the point having the average parallax is displayed at the same depth as the screen.

【0057】また、輻輳投影による表示を示す図3にお
いて、Aは表示する画像中の最近点の奥行き、Bは最遠
点の奥行き、Cは平均視差の奥行きを示す。輻輳投影で
は、画像の中心で視差が0の場合に、スクリーンと同一
の奥行きに表示されることになる。したがって、輻輳投
影の場合画像シフト手段4aおよび4bは平均視差を−
1/2倍した値だけ左右の画像をシフトする。
In FIG. 3 showing display by convergence projection, A indicates the depth of the nearest point in the displayed image, B indicates the depth of the farthest point, and C indicates the depth of the average parallax. In the convergence projection, when the parallax is 0 at the center of the image, the image is displayed at the same depth as the screen. Therefore, in the case of convergence projection, the image shift means 4a and 4b reduce the average parallax by-
The left and right images are shifted by half the value.

【0058】以上のように本実施の形態によれば、多視
点画像を伝送する際に、画像内の最近点、最遠点の情報
を付加することにより、表示側で目の疲れない表示(視
差制御)を行うことができる。
As described above, according to the present embodiment, when transmitting a multi-viewpoint image, by adding the information of the nearest point and the farthest point in the image, the display side can be displayed without eyestrain. Parallax control).

【0059】また、カメラの撮像面(CCD)のサイ
ズ、撮像面とレンズ中心との距離、及びレンズの焦点距
離に関する情報を付加して伝送することにより、撮影時
の視野角に応じた表示を行おうとする際、被写体に接近
して撮影した映像についても、表示側で撮影時の視野角
を精度よく計算することができる。
Also, by adding and transmitting information on the size of the imaging plane (CCD) of the camera, the distance between the imaging plane and the center of the lens, and the focal length of the lens, a display corresponding to the viewing angle at the time of photographing can be obtained. When trying to do so, the viewing angle at the time of shooting can be accurately calculated on the display side even for a video shot close to the subject.

【0060】なお、多視点画像中の最近点、最遠点に関
する情報を付加せずに伝送する場合には、最近点、最遠
点に関する情報の変わりに、最近点、最遠点に関する情
報が付加されていないことを示す専用の符号を付加して
伝送し、表示側において、予め設定した範囲内で視差の
計算を行うことにより、画像内の最近点、最遠点での視
差を推定することができ、本発明に含まれる。
When transmitting without adding information on the nearest point and the farthest point in the multi-viewpoint image, information on the nearest point and the furthest point is replaced with information on the nearest point and the furthest point. Estimate the parallax at the nearest point and the farthest point in the image by transmitting the image with a dedicated code indicating that it is not added and transmitting it, and calculating the parallax within the preset range on the display side. Can be included in the present invention.

【0061】さらに、伝送側において、多視点画像中の
最近点、最遠点に関する情報を特定の奥行き値に設定す
ることにより、その設定された特定の奥行き範囲での視
差が融合範囲に入るように視差制御することができ、本
発明に含まれる。
Further, by setting the information on the nearest point and the farthest point in the multi-viewpoint image to a specific depth value on the transmission side, the disparity in the specific depth range thus set falls within the fusion range. Parallax control can be performed, and is included in the present invention.

【0062】また、本発明においては視差の計算を表示
側で行う例について説明したが、符号化された画像中に
含まれる視差を用いてもよく、本発明に含まれる。図1
0を用いてそのような例について説明する。
In the present invention, an example in which the calculation of the disparity is performed on the display side has been described. However, the disparity included in the encoded image may be used and is included in the present invention. FIG.
Such an example will be described using 0.

【0063】図10において、画像復号手段6以外の構
成の動作は、図5に示す視差制御方式と同一であるので
説明を省略し、以下画像復号手段6の動作について説明
する。画像復号手段6は、符号化された画像データを復
号し、左右の画像と左画像を基準とした視差を出力す
る。MPEG−2による多視点画像伝送方式で2眼式画
像を伝送する際には、左画像を基準とする視差補償によ
り圧縮率を高めている。符合化された画像データ中から
視差を取り出すことにより、表示側で視差の計算をする
必要がなくなり、表示側での演算量を低減できる。
In FIG. 10, the operation of the components other than the image decoding means 6 is the same as that of the parallax control method shown in FIG. 5, and therefore the description thereof is omitted, and the operation of the image decoding means 6 will be described below. The image decoding means 6 decodes the encoded image data and outputs parallax based on the left and right images and the left image. When transmitting a two-lens image using a multi-view image transmission method based on MPEG-2, the compression rate is increased by parallax compensation based on the left image. By extracting the parallax from the encoded image data, it is not necessary to calculate the parallax on the display side, and the amount of calculation on the display side can be reduced.

【0064】なお、平均視差演算手段3による視差の平
均の計算は、画面の中央部を重視して(数14)による
重み付け平均値を用いてもよい。こうのようにすれば、
画像の中心部で、より融合しやすい視差制御を行え、本
発明に含まれる。
The calculation of the average of the parallax by the average parallax calculating means 3 may use the weighted average value by (Equation 14) with emphasis on the center of the screen. If you do this,
At the center of the image, parallax control that is easier to fuse can be performed and is included in the present invention.

【0065】[0065]

【数14】 [Equation 14]

【0066】図9(a)(b)(c)は、(数14)に
よる重み付け平均の計算に用いる重みの分布の例を示
す。簡単のため1次元的に示しているが、実際には、画
像中央部で周辺部よりも大きな値となる2次元的な分布
である。また、重みの値はすべて0以上の値(負でない
値)である。 (第2の実施の形態)図11は、本発明の第2の実施の
形態における視差制御方式のブロック図である。図11
において、頻度計算手段7、シフト量演算手段8以外の
構成は、第1の実施の形態におけるものと同一の動作を
行うものであるため、第1の実施の形態での説明図と同
一の符号を付し、説明を省略する。以下に頻度計算手段
7、シフト量演算手段8の動作について説明する。
FIGS. 9 (a), 9 (b) and 9 (c) show examples of the distribution of weights used for calculating the weighted average by (Equation 14). Although shown one-dimensionally for simplicity, it is actually a two-dimensional distribution where the value is larger at the center of the image than at the periphery. The weight values are all values equal to or greater than 0 (non-negative values). (Second Embodiment) FIG. 11 is a block diagram of a parallax control system according to a second embodiment of the present invention. FIG.
Since the components other than the frequency calculation means 7 and the shift amount calculation means 8 perform the same operations as those in the first embodiment, the same reference numerals as those used in the first embodiment will be used. And the description is omitted. The operation of the frequency calculating means 7 and the shift amount calculating means 8 will be described below.

【0067】頻度計算手段7は、画像復号手段6によっ
て復号された左画像基準の視差の頻度を計算する。視差
の頻度とは、画像のある領域(たとえば、画像全体でも
よいし、いっての基準で決めた特定の領域でもよい)内
における視差の各値毎に計算した画素数である。シフト
量演算手段8は、頻度計算手段7によって計算された
(画像間での)視差の頻度と画像の視野角に応じた人の
目の融合範囲とから、融合範囲内の視差の頻度の和が最
大になるシフト量を演算し、画像シフト手段4a, 4b
に出力する。
The frequency calculation means 7 calculates the frequency of the parallax based on the left image decoded by the image decoding means 6. The parallax frequency is the number of pixels calculated for each value of parallax in a certain area of the image (for example, the entire image or a specific area determined based on the criteria). The shift amount calculating means 8 calculates the sum of the frequency of the parallax in the fusion range from the frequency of the parallax (between images) calculated by the frequency calculation means 7 and the fusion range of the human eye according to the viewing angle of the image. Is calculated, and the image shift means 4a, 4b
Output to

【0068】図12は、シフト演算手段8の構成の一例
を示す。図12において、9はMPU、10は融合範囲
テーブルである。MPU9は画像表示面の幅と観察距離
から(数15)に示す水平方向の視野角を計算し、該視
野角における融合範囲を融合範囲テーブル10から読み
出す。
FIG. 12 shows an example of the configuration of the shift operation means 8. In FIG. 12, 9 is an MPU, and 10 is a fusion range table. The MPU 9 calculates the horizontal viewing angle shown in (Equation 15) from the width of the image display surface and the observation distance, and reads the fusion range at the viewing angle from the fusion range table 10.

【0069】[0069]

【数15】 (Equation 15)

【0070】図13は融合範囲テーブルの特性の1例を
示す。図13において、横軸は画像表示面の水平方向の
視野角であり、縦軸は視差の融合範囲((数16)によ
り角度換算している)である。
FIG. 13 shows an example of the characteristics of the fusion range table. In FIG. 13, the horizontal axis is the horizontal viewing angle of the image display surface, and the vertical axis is the parallax fusion range (angle converted by (Equation 16)).

【0071】[0071]

【数16】 (Equation 16)

【0072】なお、図13の縦軸の符号は負の側が表示
面よりも手前に知覚される視差、正の側が表示面よりも
奥に知覚される視差を示している。図14は、(数1
6)の図形的な意味を示す図である。図14は、角度換
算した視差θは画像表示面上での視差Δを視野角に換算
したものであることを示す。
The sign on the vertical axis in FIG. 13 indicates the parallax perceived in front of the display surface on the negative side, and the parallax perceived behind the display surface on the positive side. FIG.
It is a figure which shows the graphic meaning of 6). FIG. 14 shows that the angle-converted parallax θ is obtained by converting the parallax Δ on the image display surface into a viewing angle.

【0073】一方、図1および図3に示す平行投影と輻
輳投影において、画像の位置(例えば液晶プロジェクタ
であれば液晶上の画素の位置)xl1,xr1 と表示面上で
の位置Xl,Xr の位置関係は、それぞれ(数17)(数
19)となり、表示面上での視差は(数18)(数2
0)となる。
On the other hand, in the parallel projection and the convergence projection shown in FIGS. 1 and 3, the positions of the images (for example, the positions of the pixels on the liquid crystal in the case of a liquid crystal projector) xl1, xr1 and the positions Xl, Xr on the display surface are determined. The positional relationship is (Equation 17) (Equation 19), and the parallax on the display surface is (Equation 18) (Equation 2).
0).

【0074】[0074]

【数17】 [Equation 17]

【0075】[0075]

【数18】 (Equation 18)

【0076】[0076]

【数19】 [Equation 19]

【0077】[0077]

【数20】 (Equation 20)

【0078】そして、撮影時の撮影面上での座標値(x
l0,yl0),(xr0,yr0)と、投影時の画像の位置(x
l1,yl0),(xr1,yr1)(例えば液晶プロジェクタで
あれば液晶上の画素の位置)との関係は、(数21)で
表される。
Then, the coordinate value (x
l0, yl0), (xr0, yr0) and the position (x
The relationship with (l1, yl0), (xr1, yr1) (for example, the position of the pixel on the liquid crystal in the case of a liquid crystal projector) is expressed by (Equation 21).

【0079】[0079]

【数21】 (Equation 21)

【0080】ここで、撮像面の幅winはカメラパラメー
タから得られ、表示時の画像幅woutは表示系固有の値
である。
Here, the width win of the imaging surface is obtained from the camera parameters, and the image width wout at the time of display is a value specific to the display system.

【0081】撮像時の条件(平行撮影/輻輳撮影)に応
じて(数5)もしくは(数8)を用いてxl0,xr0を計
算し、(数21)によりxl1,xr1に変換する。更に、
投影時の条件(平行投影/輻輳投影)に応じて、(数1
8)もしくは(数20)を計算することにより、撮像条
件、投影条件の双方を考慮して、表示画面上での視差を
計算できる。
According to the conditions at the time of imaging (parallel imaging / convergence imaging), xl0 and xr0 are calculated using (Equation 5) or (Equation 8), and are converted into xl1 and xr1 by (Equation 21). Furthermore,
In accordance with the projection conditions (parallel projection / convergence projection), (Equation 1)
8) or (Equation 20), the parallax on the display screen can be calculated in consideration of both the imaging condition and the projection condition.

【0082】MPU9は、融合範囲テーブル10から読
み出した融合範囲を表示面上での視差(距離)に換算し、
画像表示面上での視差の融合範囲を決定する。そして、
MPU9は、上述した画像データにおける視差と画像表
示面上での視差の関係とを用いて、融合範囲内の視差の
頻度の和が最大になるような、画像データに対するシフ
ト量を計算する(視差制御による画像のシフトは、視差
の頻度分布を図15において水平方向に移動させること
を意味する)。
The MPU 9 converts the fusion range read from the fusion range table 10 into parallax (distance) on the display surface,
The parallax fusion range on the image display surface is determined. And
The MPU 9 calculates a shift amount with respect to the image data such that the sum of the frequencies of the parallaxes within the fusion range is maximized using the above-described parallax in the image data and the relationship between the parallaxes on the image display surface (parallax). The shift of the image by the control means moving the frequency distribution of the parallax in the horizontal direction in FIG. 15).

【0083】画像シフト手段4a,4bによって該出力
シフト量だけ逆方向に画像をシフトし、画像表示手段5
a,5bによって表示することにより、融合範囲内での
視差の頻度の和が最大(すなわち画像内で融合する画素
の面積が最大)になる表示を行うことができる。
The image is shifted in the reverse direction by the output shift amount by the image shift means 4a and 4b.
By displaying by a and 5b, it is possible to perform a display in which the sum of the frequencies of the parallaxes within the fusion range is maximum (that is, the area of the pixels to be fused in the image is maximum).

【0084】以上説明したように、本実施の形態によれ
ば、人の目の融合範囲に応じた視差制御を行うことによ
って、表示時に画像のより多くの部分で視差を融合範囲
内に入るようにすることができる。
As described above, according to the present embodiment, by performing parallax control according to the fusion range of human eyes, the parallax can be included in the fusion range in a larger part of the image when displayed. Can be

【0085】なお、本実施の形態では、融合範囲内での
視差頻度の和が最大になる視差制御について説明した
が、視差の平均値が融合範囲の中央になるように視差制
御してもほぼ同等の効果を得ることができ、本発明に含
まれる。
In the present embodiment, the parallax control in which the sum of the parallax frequencies within the fusion range is maximized has been described. However, even if the parallax control is performed so that the average value of the parallax is at the center of the fusion range, it is almost impossible. Equivalent effects can be obtained and are included in the present invention.

【0086】また、伝送側において、最近点及び最遠点
を、実際の画像中の最近点及び最遠点とは異なる値に設
定し、表示側において該設定値の最近点及び最遠点に相
当する各々の視差の平均の視差が、融合範囲の中央にな
るように視差制御することにより、画像作成者の意図す
る奥行きでの画像を優先的に観察者に提示することがで
き、本発明に含まれる。 (第3の実施の形態)本発明の第3の実施の形態は、1
組の画像対を入力し、初期視差と初期視差の信頼性とを
計算し、基準画像と初期視差の信頼性とから物体輪郭線
を検出し、初期視差と初期視差の信頼性と検出された物
体輪郭線とから、物体輪郭線近傍の初期視差の信頼性の
低い領域での視差を決定する。このとき視差は、物体輪
郭線において変化し、かつ、周囲の視差とは滑らかに接
続するように決定する視差推定方法およびその装置であ
る。
Further, the nearest point and the farthest point on the transmission side are set to values different from the nearest point and the farthest point in the actual image, and the nearest point and the farthest point of the set values are set on the display side. By controlling the parallax so that the average parallax of each corresponding parallax is in the center of the fusion range, an image at the depth intended by the image creator can be preferentially presented to the observer. include. (Third Embodiment) A third embodiment of the present invention is described as follows.
Input a pair of image pairs, calculate the initial disparity and the reliability of the initial disparity, detect the object outline from the reference image and the reliability of the initial disparity, and detect the initial disparity and the reliability of the initial disparity From the object contour, a parallax in an area where the initial parallax near the object contour is unreliable is determined. At this time, a parallax estimating method and a parallax estimating method are used in which the parallax changes in the object outline and is determined to be smoothly connected to the surrounding parallax.

【0087】本実施の形態では前述した構成により、基
準画像と参照画像の1組の画像対から、初期視差と初期
視差の信頼性とを計算し、基準画像と初期視差の信頼性
とから物体輪郭線を検出し、初期視差と初期視差の信頼
性と検出された物体輪郭線とから、物体輪郭線近傍の初
期視差の信頼性の低い領域での視差が、物体輪郭線にお
いて変化し、かつ、周囲の視差とは滑らかに接続するよ
うに決定する。
In the present embodiment, with the above-described configuration, the initial parallax and the reliability of the initial parallax are calculated from a pair of image pairs of the reference image and the reference image, and the object is calculated from the reference image and the reliability of the initial parallax. Detecting the contour, from the initial parallax and the reliability of the initial parallax and the detected object contour, the parallax in a region of low reliability of the initial parallax near the object contour changes in the object contour, and Is determined so as to be smoothly connected to the surrounding parallax.

【0088】図16は、本発明の第3の実施の形態にお
ける視差推定装置のブロック図である。
FIG. 16 is a block diagram of a parallax estimating apparatus according to the third embodiment of the present invention.

【0089】図16において、201はブロックマッチ
ングによる初期視差を計算する初期視差推定部、202
は初期視差推定時の信頼性評価部、203は輪郭検出
部、204は物体輪郭付近での視差推定部である。
In FIG. 16, reference numeral 201 denotes an initial disparity estimating unit for calculating an initial disparity by block matching;
Is a reliability evaluation unit at the time of initial parallax estimation, 203 is a contour detection unit, and 204 is a parallax estimation unit near the object contour.

【0090】以下に上記構成の動作について説明する。The operation of the above configuration will be described below.

【0091】初期視差推定部201は、(数22)に示
す残差平方和(Sum of Squared diff
erences 以下SSD)の計算を行う。(数2
2)によるSSDの値は、基準画像に設定した窓領域と
参照画像中に設定した窓領域内の画素値の分布が似てい
るところでは小さな値となり、逆に双方の窓領域内での
画素値の分布が異なるところでは大きな値となる。初期
視差推定部201は、所定の探索範囲内でSSDの値を
最小とする画像間のずれ量dを着目点(x,y)におけ
る視差とし、その視差の値を物体輪郭付近での視差推定
部204に出力し、探索範囲内でのSSDの最小値を初
期視差推定時の信頼性評価部202に出力する。
The initial disparity estimating unit 201 calculates the sum of squared differences (Sum of Squared diff) shown in (Equation 22).
calculations (hereinafter SSD). (Equation 2
The value of the SSD according to 2) is small when the distribution of pixel values in the window region set in the reference image and the window region set in the reference image is similar, and conversely, the pixel value in both window regions is small. The value becomes large where the value distribution is different. The initial parallax estimating unit 201 sets the amount of displacement d between images that minimizes the SSD value within a predetermined search range as the parallax at the point of interest (x, y), and estimates the parallax value near the object contour. The minimum value of the SSD within the search range is output to the reliability evaluation unit 202 at the time of initial parallax estimation.

【0092】[0092]

【数22】 (Equation 22)

【0093】図17は、初期視差推定部201による上
記初期視差推定(ブロックマッチング)を説明する図で
ある。図17において、着目点(x,y)を中心にして
設定した窓領域が、(数22)の積分領域Wを示す。窓
領域を順次ずらして設定し、上記のSSDの計算を行う
ことにより画像全体での初期視差を得ることができる。
FIG. 17 is a diagram for explaining the initial parallax estimation (block matching) performed by the initial parallax estimating unit 201. In FIG. 17, the window region set around the point of interest (x, y) indicates the integration region W of (Equation 22). The initial parallax of the entire image can be obtained by sequentially shifting the window regions and calculating the above-mentioned SSD.

【0094】初期視差推定時の信頼性評価部202は、
初期視差推定部201による視差計算で得られたSSD
の探索範囲中での最小値、窓領域(ブロック)内の画素
数、画像間のノイズの分散、窓領域内での基準画像の水
平垂直方向の輝度こう配の2乗の平均値から、(数2
3)に示す対応付けの信頼性評価値を計算する。
The reliability evaluation unit 202 at the time of initial parallax estimation
SSD obtained by parallax calculation by the initial parallax estimating unit 201
From the minimum value in the search range, the number of pixels in the window area (block), the variance of noise between images, and the average value of the square of the luminance gradient in the horizontal and vertical directions of the reference image in the window area. 2
The reliability evaluation value of the association shown in 3) is calculated.

【0095】[0095]

【数23】 (Equation 23)

【0096】(数23)の値は、小さいほど視差推定の
信頼性が高いことを示し、逆に大きいほど信頼性が低い
ことを示す。
The smaller the value of (Expression 23), the higher the reliability of the parallax estimation, and the larger the value, the lower the reliability.

【0097】図18は、輪郭検出部203の構成の一例
を示すブロック図である。図18において、205は基
準画像を輝度成分と色成分に分離するYC分離回路、2
06A,206B,206Cは、上記分離された輝度成
分Y、色成分R−Y,B−Yからそれぞれエッジを検出
するエッジ検出回路、207はエッジ検出結果の稜線に
おける強度のみを出力する稜線検出部、208は初期視
差推定値の信頼性の低い領域で1の重みを出力し、初期
視差推定値の信頼性の高い領域では0の重みを出力する
重み発生回路である。
FIG. 18 is a block diagram showing an example of the configuration of the contour detection unit 203. In FIG. 18, reference numeral 205 denotes a YC separation circuit for separating a reference image into a luminance component and a color component;
06A, 206B, and 206C are edge detection circuits that detect edges from the separated luminance component Y and color components RY and BY, respectively, and 207 is an edge detection unit that outputs only the edge intensity of the edge detection result. Reference numeral 208 denotes a weight generation circuit that outputs a weight of 1 in an area where the initial disparity estimation value has low reliability, and outputs a weight of 0 in an area where the initial disparity estimation value has high reliability.

【0098】以下に上記構成の動作について説明する。The operation of the above configuration will be described below.

【0099】YC分離回路205は、基準画像を輝度成
分Y、色成分R−Y,B−Yに分離し出力する。
The YC separation circuit 205 separates the reference image into a luminance component Y and color components RY and BY and outputs the same.

【0100】エッジ検出回路206A,206B,20
6Cはそれぞれ、上記Y,R−Y,B−Y成分からエッ
ジ成分を検出する。図19は、エッジ検出回路206の
構成の一例を示すブロック図である。図19において、
209A,209B,209Cはそれぞれ低空間周波数
域、中空間周波数域、高空間周波数域におけるエッジ成
分を検出する方向別フィルタ群である。210、21
1、212、213は、それぞれの方向別フィルタ群を
構成する方向別フィルタである。図20は、上記方向別
フィルタの空間的な重みの一例であり。図20(a),
(b),(c)は垂直方向に連続するエッジを、
(d),(e),(f)は斜め方向のエッジを検出する
ものである。
Edge detection circuits 206A, 206B, 20
6C detects an edge component from the Y, RY, and BY components, respectively. FIG. 19 is a block diagram illustrating an example of a configuration of the edge detection circuit 206. In FIG.
Reference numerals 209A, 209B, and 209C denote direction-dependent filter groups for detecting edge components in a low spatial frequency range, a medium spatial frequency range, and a high spatial frequency range, respectively. 210, 21
Reference numerals 1, 212, and 213 denote direction-specific filters forming respective direction-specific filter groups. FIG. 20 is an example of the spatial weight of the direction-specific filter. FIG. 20 (a),
(B) and (c) show edges that are continuous in the vertical direction,
(D), (e), and (f) detect edges in oblique directions.

【0101】尚、(a),(d)が高空間周波数域、
(b),(e)が中空間周波数域、(c),(f)が低
空間周波数域用の重みの分布の一例を示す。水平および
他方の斜め方向のエッジ検出は、図20の計数の配置を
90度回転させればよい。また、エッジの方向は45度
刻みに限る必要はなく、30度刻みなどでもよいのは当
然である。
(A) and (d) are high spatial frequency ranges,
(B) and (e) show examples of the distribution of weights for the middle spatial frequency range, and (c) and (f) show examples of the distribution of weights for the low spatial frequency range. Edge detection in the horizontal direction and the other diagonal direction may be performed by rotating the arrangement of the counting in FIG. 20 by 90 degrees. Also, the direction of the edge need not be limited to 45 degrees, but may be 30 degrees.

【0102】また、方向別フィルタの空間的な重みは図
20に示すものに限る必要はなく、方向毎についての微
分型の重み分布になっていればよいのは当然である。各
方向別のエッジ強度の算出法を式で示すと(数24)に
なる。
The spatial weights of the direction-specific filters need not be limited to those shown in FIG. 20, but needless to say, a differential type weight distribution for each direction is sufficient. The method of calculating the edge strength for each direction is expressed by (Equation 24).

【0103】[0103]

【数24】 (Equation 24)

【0104】統合部214は方向別フィルタ210,2
11,212,213の出力を統合する。統合部214
による統合の一例を式で示すと(数25)になる。
The integration unit 214 includes direction-specific filters 210 and 2
11, 212, and 213 are integrated. Integration unit 214
An example of the integration by the following equation is represented by (Equation 25).

【0105】[0105]

【数25】 (Equation 25)

【0106】尚、統合部214による統合は(数25)
で示される2乗和の形式のものに限る必要はなく、絶対
値和の形式のものなどでもよいのは当然である。
The integration by the integration unit 214 is (Equation 25)
It is needless to say that the present invention is not limited to the form of the sum of squares represented by

【0107】輝度成分Y、色成分R−Y,B−Yについ
て、高空間周波数域、中空間周波数域、低空間周波数域
でそれぞれ統合部214A,214B,214Cにより
統合されたエッジ強度は、乗算され出力される。そし
て、Y,R−Y,B−Y各成分についての上記エッジ強
度は、加算され稜線検出部7に転送される。
For the luminance component Y and the color components RY and BY, the edge intensities integrated by the integration units 214A, 214B and 214C in the high spatial frequency range, middle spatial frequency range and low spatial frequency range are multiplied. Is output. Then, the edge intensities for the Y, RY, and BY components are added and transferred to the ridge line detection unit 7.

【0108】尚、輪郭検出部203における基準画像の
輝度成分、色成分への分離はY,R−Y,B−Yに限る
必要はなく、R,G,B等他の成分へ分離してもよいの
は当然である。また、Y,R−Y,B−Yについての上
記エッジ強度は加算後に稜線検出部207に転送するも
のに限る必要はなく、乗算後に稜線検出部207に転送
してもよい。
Note that the separation of the reference image into the luminance component and the color component in the contour detection unit 203 need not be limited to Y, RY, and BY, but may be performed by separating the reference image into other components such as R, G, and B. Of course it is good. Also, the edge strengths for Y, RY, and BY need not be limited to those transferred to the ridge line detection unit 207 after addition, and may be transferred to the ridge line detection unit 207 after multiplication.

【0109】図18に戻って、稜線検出部207は、上
記Y,R−Y,B−Yについて加算されたエッジ強度の
稜線における値のみを出力する。図21は、稜線検出部
207の構成の一例である。図21において、水平稜線
検出回路215は着目画素でのエッジ強度が着目点の上
下の画素でのエッジ強度の双方よりも大きい場合に1を
出力し、そうでない場合には0を出力する。
Returning to FIG. 18, the ridge line detecting section 207 outputs only the value of the edge strength added to the ridge line for Y, RY and BY. FIG. 21 is an example of the configuration of the ridge line detection unit 207. In FIG. 21, the horizontal ridge line detection circuit 215 outputs 1 when the edge strength at the target pixel is larger than both the edge strengths at the pixels above and below the target point, and outputs 0 otherwise.

【0110】同様に、垂直稜線検出回路216は着目画
素でのエッジ強度が着目点の左右の画素でのエッジ強度
の双方よりも大きい場合に1を出力し、そうでない場合
には0を出力する。水平稜線検出回路215と垂直稜線
検出回路216の出力は、OR演算され、更に入力信号
と乗算して出力される。すなわち、稜線検出部207
は、水平方向もしくは垂直方向に隣接する画素でのエッ
ジ強度よりも強いエッジ強度を有する画素(すなわち稜
線となっている画素)におけるエッジ強度のみを出力
し、その他の画素については0を出力する。
Similarly, the vertical ridge line detection circuit 216 outputs 1 when the edge strength at the target pixel is larger than both the edge strengths at the left and right pixels of the target point, and outputs 0 when it is not. . The outputs of the horizontal ridge line detection circuit 215 and the vertical ridge line detection circuit 216 are subjected to an OR operation, further multiplied by an input signal, and output. That is, the ridge line detection unit 207
Outputs only the edge intensity of a pixel having an edge intensity higher than the edge intensity of a pixel adjacent in the horizontal or vertical direction (that is, a pixel having a ridge line), and outputs 0 for other pixels.

【0111】再び図18に戻って、重み発生回路208
は、初期視差推定値の信頼性評価値がしきい値以上の時
1を出力し、しきい値未満の時には0を出力する。重み
発生回路208の出力を稜線検出部207の出力と乗算
することにより、初期視差推定値の信頼性が低いところ
でのエッジ、すなわち視差が不連続に変化する物体輪郭
線を抽出できる。また、重み発生回路208の出力は、
後述する物体輪郭付近での視差推定部204の演算領域
メモリに記憶される。物体輪郭線の抽出を式で示すと
(数26)となる。
Returning to FIG. 18 again, the weight generation circuit 208
Outputs 1 when the reliability evaluation value of the estimated initial disparity value is equal to or greater than the threshold value, and outputs 0 when the reliability evaluation value is less than the threshold value. By multiplying the output of the weight generation circuit 208 with the output of the edge detection unit 207, it is possible to extract an edge where the reliability of the initial estimated disparity value is low, that is, an object contour line in which the disparity changes discontinuously. The output of the weight generation circuit 208 is
It is stored in the calculation area memory of the parallax estimating unit 204 near the object contour described later. Expression of the object contour is expressed by (Expression 26).

【0112】[0112]

【数26】 (Equation 26)

【0113】尚、エッジ検出結果206A,206B,
206Cの出力を加算して稜線検出部7に入力するよう
に限る必要はなく、乗算して稜線検出部207に入力し
てもよい。また、稜線検出部207の出力と乗算される
重み発生回路208による重み発生の方法は、0と1の
2値に限る必要はなく、初期視差推定時の信頼性に応じ
て連続的な値を出力してもよいのは当然である。
The edge detection results 206A, 206B,
It is not necessary to add the outputs of the Cs 206 </ b> C and input them to the edge detection unit 7. The outputs may be multiplied and input to the edge detection unit 207. Also, the method of weight generation by the weight generation circuit 208 multiplied by the output of the ridge line detection unit 207 does not need to be limited to binary values of 0 and 1, and continuous values may be calculated according to the reliability at the time of initial parallax estimation. Of course, it may be output.

【0114】物体輪郭付近での視差推定部204は、物
体輪郭線近傍の初期視差推定値の信頼性の低い領域での
視差を、輪郭強度、初期視差から再計算する。物体輪郭
付近での視差推定部204は、(数27)で定義される
視差の分布についてのエネルギーを最小化する視差分布
を計算する。
The disparity estimation unit 204 near the object contour recalculates the disparity in the area where the initial disparity estimation value near the object contour is low in reliability, from the contour strength and the initial disparity. The disparity estimation unit 204 near the object contour calculates a disparity distribution that minimizes the energy of the disparity distribution defined by (Equation 27).

【0115】[0115]

【数27】 [Equation 27]

【0116】重み関数w(x,y)は滑らかさのパラメ
ータと輪郭強度により(数28)として定義する。
The weighting function w (x, y) is defined as (Equation 28) by the parameter of smoothness and the contour strength.

【0117】[0117]

【数28】 [Equation 28]

【0118】(数27)を最小にする視差分布の条件は
(数29)である。
The condition of the parallax distribution that minimizes (Equation 27) is (Equation 29).

【0119】[0119]

【数29】 (Equation 29)

【0120】(数29)の微分方程式は、有限要素法
(FEM)等の公知の技術によって数値的に解くことが
できる。
The differential equation (Equation 29) can be numerically solved by a known technique such as the finite element method (FEM).

【0121】図22は、物体輪郭付近での視差推定部2
04の構成の一例を示すブロック図である。図22にお
いて、217は視差分布エネルギー用の重みを発生する
視差分布エネルギー用重み発生回路、218は演算領域
メモリ、219は視差メモリ、220は重みメモリ、2
21はFEM演算回路である。
FIG. 22 shows a parallax estimating unit 2 near the object contour.
FIG. 4 is a block diagram illustrating an example of a configuration of the information management unit 04. In FIG. 22, reference numeral 217 denotes a weighting circuit for disparity distribution energy for generating weights for disparity distribution energy, 218 denotes a calculation area memory, 219 denotes a disparity memory, 220 denotes a weight memory, and 2 denotes a weight memory.
21 is an FEM operation circuit.

【0122】視差分布エネルギー用重み発生回路217
は、輪郭強度と滑らかさのパラメータλから(数28)
の重み関数の値を計算し、重みメモリ220に書き込
む。FEM演算回路221は、(数29)を有限要素法
により解き、視差分布を計算する。
Parity distribution energy weight generation circuit 217
Is obtained from the parameters λ of the contour strength and smoothness (Equation 28)
Is calculated and written to the weight memory 220. The FEM operation circuit 221 solves (Equation 29) by the finite element method and calculates the parallax distribution.

【0123】以上のように本実施の形態によれば、ブロ
ックマッチングによる視差推定値の信頼性が低い領域に
おいて、物体輪郭線を検出し、検出した物体輪郭線の所
で視差が不連続に変化するように視差推定を行うことが
できる。
As described above, according to the present embodiment, an object contour is detected in an area where the reliability of a parallax estimation value obtained by block matching is low, and the parallax changes discontinuously at the detected object contour. Parallax estimation can be performed as follows.

【0124】また、本実施の形態によれば、任意の形状
の物体輪郭線の所で視差が不連続に変化するように視差
推定を行うことができる。
Further, according to the present embodiment, it is possible to perform parallax estimation such that the parallax changes discontinuously at an object contour having an arbitrary shape.

【0125】尚、物体輪郭付近での視差推定は、視差が
物体輪郭線の所で変化し、かつ、周囲の視差と滑らかに
接続すればよく、(数27)に示すエネルギーを最小化
する視差として計算する方法に限る必要はない。そのよ
うな例について、以下に説明する。 (第4の実施の形態)図23は、本発明の第4の実施の
形態における視差推定装置の構成を示すブロック図であ
る。図23において、201はブロックマッチングによ
る初期視差を計算する初期視差推定部、202は初期視
差推定時の信頼性評価部、222は輪郭検出部、223
は物体輪郭付近での視差推定部である。
It should be noted that the parallax estimation in the vicinity of the object contour may be such that the parallax changes at the object outline and is smoothly connected to the surrounding parallax. It is not necessary to limit to the method of calculating as. Such an example will be described below. (Fourth Embodiment) FIG. 23 is a block diagram showing a configuration of a parallax estimating apparatus according to a fourth embodiment of the present invention. In FIG. 23, reference numeral 201 denotes an initial disparity estimating unit that calculates initial disparity by block matching, 202 denotes a reliability evaluation unit at the time of initial disparity estimation, 222 denotes a contour detection unit, and 223.
Is a parallax estimating unit near the object contour.

【0126】上記構成において、輪郭検出部222、物
体輪郭付近での視差推定部223以外の構成の動作は本
発明の第3の実施の形態と同一であるので説明を省略
し、以下に輪郭検出部222、物体輪郭付近での視差推
定部223の動作について説明する。
In the above configuration, the operation of the configuration other than the contour detection unit 222 and the parallax estimating unit 223 near the object contour is the same as that of the third embodiment of the present invention, and the description is omitted. The operation of the parallax estimating unit 223 near the object contour will be described.

【0127】まず、輪郭検出部222は、本発明の第3
の実施の形態における輪郭検出部と同様の輪郭検出を行
ない、検出結果を2値化(例えば、0と1)して出力す
る。物体輪郭付近での視差推定部223は、物体輪郭線
近傍の初期視差推定値の信頼性の低い領域での視差を、
初期視差と輪郭検出部222によって検出された物体輪
郭線とから計算する。
First, the contour detecting section 222 is the third embodiment of the present invention.
The contour detection is performed in the same manner as the contour detection unit in the embodiment, and the detection result is binarized (for example, 0 and 1) and output. The disparity estimation unit 223 near the object contour calculates the disparity in an area where the initial disparity estimation value near the object contour is unreliable.
It is calculated from the initial parallax and the object contour detected by the contour detection unit 222.

【0128】図24は、物体輪郭付近での視差推定部2
23による視差推定の様子を示す図である。図24にお
いて、291は初期視差推定値の信頼性の低い領域、2
92は輪郭検出部222によって検出された物体輪郭
線、293は初期視差推定値の信頼性の高い領域、29
4は視差を計算しようとする着目点、295は着目点を
含むように設定した窓領域である。
FIG. 24 shows a parallax estimating unit 2 near the object contour.
FIG. 14 is a diagram showing a state of parallax estimation by 23. In FIG. 24, reference numeral 291 denotes an area where the initial disparity estimation value is unreliable;
Reference numeral 92 denotes an object contour detected by the contour detection unit 222, reference numeral 293 denotes a highly reliable area of the estimated initial disparity value,
Reference numeral 4 denotes a point of interest at which parallax is to be calculated, and 295 denotes a window area set to include the point of interest.

【0129】着目点294(x,y)における視差は、
設定窓領域内で初期視差推定値の信頼性の低い領域29
1と接する周囲の領域(この場合は、初期視差推定値の
信頼性の高い領域293a)での視差を用い、着目点2
94での視差が、周囲の領域と着目点294との距離に
応じて、周囲の領域での視差の値の影響を受けるように
決定する。この時、周囲の領域における視差は、物体輪
郭線292を越えて着目点294に影響を与えないよう
にすることにより、物体輪郭線292の所で変化し、か
つ、周囲の視差と滑らかに接続するするように視差を決
定できる。物体輪郭付近での視差推定部223による視
差推定を一例として式で表すと(数30)となる。
The disparity at the point of interest 294 (x, y) is
A region 29 in which the initial disparity estimation value has low reliability within the setting window region
Using the disparity in the surrounding area (in this case, the area 293a in which the initial estimated disparity estimated value is highly reliable) in contact with 1, the point of interest 2
It is determined that the parallax at 94 is affected by the value of the parallax in the surrounding area according to the distance between the surrounding area and the point of interest 294. At this time, the parallax in the surrounding area changes beyond the object contour line 292 and does not affect the point of interest 294 beyond the object contour line 292, and is smoothly connected to the surrounding parallax. Parallax can be determined as if to do. The disparity estimation near the object contour by the disparity estimating unit 223 is represented by an equation as an example as follows.

【0130】[0130]

【数30】 [Equation 30]

【0131】ただし、物体輪郭付近での視差推定部22
3による視差推定は、(数30)に限る必要はなく、視
差が物体輪郭線で変化し、かつ、周囲の視差と滑らかに
接続するものであればよいのは当然である。
However, the parallax estimating unit 22 near the object contour
The parallax estimation by 3 need not be limited to (Equation 30), but it is only necessary that the parallax changes at the object contour line and is smoothly connected to the surrounding parallax.

【0132】以上のように本実施の形態によれば、ブロ
ックマッチングによる視差推定値の信頼性が低い領域に
おいて、物体輪郭線を検出し、検出した物体輪郭線の所
で視差が不連続に変化するように視差推定を行うことが
できる。
As described above, according to the present embodiment, an object contour is detected in a region where the reliability of a parallax estimation value obtained by block matching is low, and the parallax changes discontinuously at the detected object contour. Parallax estimation can be performed as follows.

【0133】また、本実施の形態によれば、任意の形状
の物体輪郭線の所で視差が不連続に変化するように視差
推定を行うことができる。
Further, according to the present embodiment, it is possible to perform parallax estimation so that the parallax changes discontinuously at an object contour of an arbitrary shape.

【0134】さらに、本実施の形態によれば、初期視差
推定値の信頼性の低い領域において、着目点近傍で比較
的少数の周囲の視差を参照して視差を計算することによ
り、少ないメモリ容量と演算量で視差の計算を行うこと
ができる。
Further, according to the present embodiment, in an area where the initial estimated disparity value is unreliable, the disparity is calculated by referring to a relatively small number of disparities in the vicinity of the point of interest, thereby reducing the memory capacity. The calculation of the parallax can be performed with the calculation amount.

【0135】また、第3と第4の実施の形態で説明した
視差推定の結果を用いて、左右の画像をシフトし統合す
ることにより、それら左右の画像に対応する各々の視点
の間の所定の中間視点における画像を生成できる。ここ
で、視差推定と中間視点画像生成とは異なる場所で行っ
てもよい。以下に、視差推定と中間視点画像生成とを異
なる場所で行う際の伝送、受信方法について説明する。 (第5の実施の形態)図25は、本発明の第5の実施の
形態において、送信側で視差推定(もしくは動き推定)
を行うシステムの送信ブロックの一例である。
Further, by shifting and integrating the left and right images using the results of the parallax estimation described in the third and fourth embodiments, a predetermined distance between the viewpoints corresponding to the left and right images can be obtained. Can be generated at an intermediate viewpoint. Here, parallax estimation and intermediate viewpoint image generation may be performed in different places. Hereinafter, transmission and reception methods when performing parallax estimation and intermediate viewpoint image generation in different places will be described. (Fifth Embodiment) FIG. 25 is a diagram illustrating a fifth embodiment of the present invention, in which parallax estimation (or motion estimation) is performed on the transmission side.
1 is an example of a transmission block of a system that performs the following.

【0136】図25において、170は左画像を基準と
した視差VL を推定する視差推定手段、171は右画像
を基準とした視差VR を推定する視差推定手段、172
a〜dは符号化器、173a,bは復号化器、174は
左画像Lと左画像を基準とした視差VL から右画像Rを
予測する予測手段、175は左画像を基準とした視差V
Lから右画像を基準とした視差VRを予測する予測手段、
176a,bは視差が正しく推定されない領域での視差
を決定する穴埋め手段である。以下に上記構成の動作に
ついて説明する。
In FIG. 25, 170 is a parallax estimating means for estimating the parallax VL based on the left image, 171 is a parallax estimating means for estimating the parallax VR based on the right image, and 172.
a to d are encoders, 173a and b are decoders, 174 is prediction means for predicting the right image R from the left image L and the disparity VL based on the left image, and 175 is the disparity V based on the left image.
Prediction means for predicting parallax VR based on the right image from L,
176a and 176b are hole filling means for determining parallax in an area where parallax is not correctly estimated. The operation of the above configuration will be described below.

【0137】まず、左画像Lは符号化器172aによっ
て符号化される。また、視差推定手段170、171に
よって左右の画像をそれぞれ基準とした視差VL,VRが
推定される。オクルージョン等により視差が正しく推定
されない領域については、第3または第4の実施の形態
で説明した視差推定方法を用いた穴埋め手段176a,
176bによって視差が決定される。
First, the left image L is encoded by the encoder 172a. The parallax estimating means 170 and 171 estimate parallaxes VL and VR based on the left and right images, respectively. For regions where parallax is not correctly estimated due to occlusion or the like, hole filling means 176a using the parallax estimating method described in the third or fourth embodiment is used.
The parallax is determined by 176b.

【0138】次に、左画像を基準とした穴埋め後の視差
は符号化器172bにより符号化される。符号化された
左画像を基準とした穴埋め後の視差は、復号化器173
aにより復号化され、予測器174による右画像Rの予
測と、予測器175による穴埋め後の右画像を基準とし
た視差の予測に用いられる。予測器175による右画像
を基準とした視差VR の予測は、左画像を基準とした視
差を用いて、(数31)として計算する。
Next, the parallax after the filling with the left image as a reference is encoded by the encoder 172b. The parallax after filling in with the encoded left image as a reference is calculated by the decoder 173.
a, which is used for prediction of the right image R by the predictor 174 and prediction of disparity by the predictor 175 based on the right image after filling. The prediction of the parallax VR based on the right image by the predictor 175 is calculated as (Equation 31) using the parallax based on the left image.

【0139】[0139]

【数31】 (Equation 31)

【0140】右画像Rは予測器174による予測画像と
の残差をとり、符号化器172dによって符号化され
る。右画像を基準とした穴埋め後の視差VR は、予測器
175による予測視差との残差をとり、符号化器172
cにより符号化される。
The right image R takes the residual from the predicted image obtained by the predictor 174, and is coded by the coder 172d. The disparity VR after padding with respect to the right image is obtained by taking the residual from the predicted disparity by the predictor 175, and
c.

【0141】図26は、受信側で視差推定を行うシステ
ムの受信ブロックの一例である。図26において、18
1a〜dは復号化器、174は右画像Rの予測器、17
5は右画像を基準とした視差の予測器である。符号化さ
れた左画像L、左画像基準の視差VL、右画像基準の視
差VRの予測誤差、右画像Rの予測誤差はそれぞれ復号
化器181a〜181dにより復号化される。右画像R
は予測器174による予測結果と復号化された右画像の
予測誤差とを加算して復元される。右画像基準の視差V
R は、予測器175による予測結果と復号化された予測
誤差とを加算して復元される。
FIG. 26 shows an example of a receiving block of a system for performing parallax estimation on the receiving side. In FIG. 26, 18
1a to 1d are decoders, 174 is a predictor for the right image R, 17
5 is a parallax predictor based on the right image. The encoded left image L, left image-based parallax VL, right image-based parallax VR prediction error, and right image R prediction error are decoded by decoders 181a to 181d, respectively. Right image R
Is restored by adding the prediction result of the predictor 174 and the prediction error of the decoded right image. Parallax V based on right image
R is restored by adding the prediction result by the predictor 175 and the decoded prediction error.

【0142】左画像L、右画像R、左画像基準の視差V
L、右画像基準の視差VRが復元されると、例えば特願平
7−109821号に示される中間視点画像生成方法に
より左右の画像の中間視点での画像を生成することがで
き、左画像、右画像と併せて多視点画像として表示する
ことができる。
The left image L, the right image R, and the parallax V based on the left image
L, when the parallax VR based on the right image is restored, an image at the intermediate viewpoint of the left and right images can be generated by the intermediate viewpoint image generation method disclosed in Japanese Patent Application No. 7-109821, for example. It can be displayed as a multi-viewpoint image together with the right image.

【0143】以上説明したように、上記の構成により、
送信側で視差推定と穴埋め処理を行うことにより、受信
側での演算量を低減することができ、受信側の装置規模
を縮小することができる。
As described above, with the above configuration,
By performing the parallax estimation and the filling process on the transmitting side, the amount of calculation on the receiving side can be reduced, and the device scale on the receiving side can be reduced.

【0144】また、多視点画像を伝送する際に、送信側
で中間視点画像生成を行うことにより伝送量を低減した
画像伝送を行うことができる。そのような例について以
下に説明する。 (第6の実施の形態)図27は、本発明の第6の実施の
形態における多視点画像圧縮伝送システムの送信側の構
成図である。図27において、101a〜101dは各
視点位置での画像を撮像するカメラ、102はカメラ1
の画像とカメラ4の画像を圧縮し符号化する画像圧縮符
号化部、103aは画像圧縮符号化部102が圧縮符号
化した画像データを復号化伸長する復号化画像伸長部、
104aは復号化画像伸長部103aが復号化伸長した
カメラ1の画像とカメラ4の画像から、カメラ2の視点
とカメラ3の視点での画像を予測し生成する中間視点画
像生成部、105はカメラ2の画像とカメラ3の画像に
ついて中間視点画像生成部104aが生成した画像との
残差を圧縮し符号化する残差圧縮符号化部である。以下
に上記構成の動作について説明する。
Further, when transmitting a multi-viewpoint image, by generating an intermediate viewpoint image on the transmitting side, image transmission with a reduced transmission amount can be performed. Such an example will be described below. (Sixth Embodiment) FIG. 27 is a configuration diagram on the transmitting side of a multi-viewpoint image compression transmission system according to a sixth embodiment of the present invention. 27, reference numerals 101a to 101d denote cameras for capturing images at respective viewpoint positions, and 102 denotes a camera 1.
103a is a decoded image decompression unit that decodes and decompresses the image data compressed and encoded by the image compression and encoding unit 102;
An intermediate viewpoint image generation unit 104a predicts and generates images at the viewpoints of the camera 2 and the camera 3 from the image of the camera 1 and the image of the camera 4 decoded and expanded by the decoded image expansion unit 103a. This is a residual compression encoding unit that compresses and encodes the residual between the image 2 and the image generated by the intermediate viewpoint image generating unit 104a for the image of the camera 3. The operation of the above configuration will be described below.

【0145】画像圧縮符号化部102は、多視点画像中
の複数の画像(本実施の形態では4視点の画像の両端の
視点の画像)を、画像間のブロック相関等を利用した既
存の技術により圧縮し符号化する。図31は、画像圧縮
符号化部102の構成の一例を示す。図31において、
107a,107bは8×8画素もしくは16×16画
素毎にDCT計算を行いDCT係数を計算するDCT手
段、108a,108bはDCT係数を量子化する量子
化手段、109aは逆量子化手段、110aは逆DCT
計算をおこなう逆DCT手段、111は視差検出手段、
112aは視差補償手段、113aは量子化されたDC
T係数と視差を符号化する符号化手段である。以下に上
記構成の動作について説明する。
The image compression / encoding unit 102 converts a plurality of images in the multi-view image (images at both ends of the four-view image in the present embodiment) into an existing technique using block correlation between the images. Is compressed and encoded. FIG. 31 shows an example of the configuration of the image compression encoding unit 102. In FIG. 31,
Reference numerals 107a and 107b denote DCT means for performing DCT calculation for each 8 × 8 pixel or 16 × 16 pixels to calculate DCT coefficients; 108a and 108b quantizing means for quantizing DCT coefficients; 109a, inverse quantizing means; Inverse DCT
Inverse DCT means for performing calculation, 111 is disparity detection means,
112a is the parallax compensating means, 113a is the quantized DC
This is an encoding unit that encodes the T coefficient and the disparity. The operation of the above configuration will be described below.

【0146】DCT手段107aは、カメラ1の画像を
ブロック毎に処理し、各ブロックについてDCT係数を
計算する。量子化手段108aは、そのDCT係数を量
子化する。逆量子化手段109aは、その量子化された
DCT係数を逆量子化する。逆DCT手段110aは、
その逆量子化されたDCT係数を逆変換し、受信側で得
られるカメラ1の画像を復元する。視差検出手段111
は復元されたカメラ1の画像とカメラ4の画像間でブロ
ックマッチングを行い、カメラ1の画像を基準とした視
差をブロック毎に計算する。視差補償手段112aは、
上記復元されたカメラ1の画像とブロック毎の視差を用
いてカメラ4の画像を予測する(すなわち、動画像の動
き補償に相当する処理を行う)。DCT手段107b
は、カメラ4の画像と上記予測画像の残差をブロック毎
に処理しDCT係数を計算する。量子化手段108bは
その残差のDCT係数を量子化する。符号化手段113
aは、カメラ1の画像の量子化されたDCT係数、ブロ
ック毎の視差、視差補償の残差の量子化されたDCT係
数を符号化する。
The DCT means 107a processes the image of the camera 1 for each block, and calculates a DCT coefficient for each block. The quantization means 108a quantizes the DCT coefficient. The inverse quantization means 109a inversely quantizes the quantized DCT coefficient. The inverse DCT means 110a
The inversely quantized DCT coefficients are inversely transformed to restore the image of the camera 1 obtained on the receiving side. Parallax detecting means 111
Performs block matching between the restored image of the camera 1 and the image of the camera 4, and calculates the parallax based on the image of the camera 1 for each block. The parallax compensation means 112a
The image of the camera 4 is predicted using the restored image of the camera 1 and the parallax of each block (that is, a process corresponding to motion compensation of a moving image is performed). DCT means 107b
Calculates the DCT coefficient by processing the residual between the image of the camera 4 and the predicted image for each block. The quantization means 108b quantizes the residual DCT coefficient. Encoding means 113
a encodes the quantized DCT coefficient of the image of the camera 1, the parallax of each block, and the quantized DCT coefficient of the residual of the parallax compensation.

【0147】また、復号化画像伸長部103aは、画像
圧縮符号化部102によって圧縮符号化された画像デー
タを復号化し伸長する。図32は、復号化画像伸長部1
03aの構成の一例を示す図である。図32において、
114aは復号化手段、109b、109cは逆量子化
手段、110b,110cは逆DCT手段、112bは
視差補償手段である。以下に上記構成の動作について説
明する。
The decoded image decompression unit 103a decodes and decompresses the image data compressed and encoded by the image compression encoding unit 102. FIG. 32 shows the decoded image decompression unit 1.
It is a figure showing an example of composition of 03a. In FIG. 32,
114a is a decoding unit, 109b and 109c are inverse quantization units, 110b and 110c are inverse DCT units, and 112b is a disparity compensation unit. The operation of the above configuration will be described below.

【0148】復号化手段114aは、圧縮符号化された
データを復号化し、カメラ1の画像の量子化されたDC
T係数、ブロック毎の視差、視差補償の残差の量子化さ
れたDCT係数を伸長する。カメラ1の画像の量子化さ
れたDCT係数は、逆量子化手段109bによって逆量
子化され、逆DCT手段110bによって画像として伸
長される。動き補償手段112bは、その伸長されたカ
メラ1の画像と復号化された視差から、カメラ4の予測
画像を生成する。そして、逆量子化手段109c、逆D
CT手段110cによって伸長された残差を上記予測画
像に加えることにより、カメラ4の画像を伸長する。
The decoding means 114a decodes the compression-encoded data, and converts the quantized DC
The quantized DCT coefficients of the T coefficient, the disparity of each block, and the residual of the disparity compensation are expanded. The quantized DCT coefficients of the image of the camera 1 are inversely quantized by the inverse quantization means 109b and decompressed as an image by the inverse DCT means 110b. The motion compensation unit 112b generates a predicted image of the camera 4 from the decompressed image of the camera 1 and the decoded parallax. Then, the inverse quantization means 109c, the inverse D
The image of the camera 4 is expanded by adding the residual expanded by the CT unit 110c to the predicted image.

【0149】中間視点画像生成部104aは、本発明の
第3もしくは第4のいずれかの実施の形態に示す方法に
よって、カメラ1とカメラ4の画像から画素毎の視差を
計算し、カメラ2とカメラ3の画像を予測し生成する。
The intermediate viewpoint image generation unit 104a calculates the parallax of each pixel from the images of the camera 1 and the camera 4 by the method shown in any of the third and fourth embodiments of the present invention, and The image of the camera 3 is predicted and generated.

【0150】残差圧縮符号化部105は、カメラ2とカ
メラ3の画像と上記予測画像の残差を圧縮し符号化す
る。中間視点画像生成部104aは、視差を画素毎に計
算するため、ブロックマッチングによるブロック毎の視
差計算と比較して、精度よく視差を推定できる。その結
果、中間視点画像の予測誤差(すなわち残差)を小さく
することができ、圧縮効率を高めることができるととも
に、より有効なビット割り当てを行うことができ、画質
を維持した圧縮を行える。図33は、残差圧縮符号化部
の構成の一例を示す。図33において、107c,10
7dはDCT手段、108c,108dは量子化手段、
113bは符号化手段である。カメラ2、カメラ3の画
像の残差はそれぞれDCT手段107c,107dによ
ってDCT係数に変換され、量子化手段108c,10
8dによって量子化され、符号化手段113bによって
符号化される。
The residual compression encoding section 105 compresses and encodes the residual of the images of the cameras 2 and 3 and the predicted image. Since the intermediate viewpoint image generation unit 104a calculates the disparity for each pixel, the intermediate viewpoint image generation unit 104a can accurately estimate the disparity as compared with the disparity calculation for each block by block matching. As a result, the prediction error (that is, residual error) of the intermediate viewpoint image can be reduced, the compression efficiency can be increased, more effective bit allocation can be performed, and compression can be performed while maintaining image quality. FIG. 33 shows an example of the configuration of the residual compression encoding unit. In FIG. 33, 107c, 10
7d is DCT means, 108c and 108d are quantization means,
113b is an encoding means. The residuals of the images of camera 2 and camera 3 are converted into DCT coefficients by DCT means 107c and 107d, respectively, and quantized by 108c and 10c.
8d, and is encoded by the encoding means 113b.

【0151】図34は、本発明の第6の実施の形態にお
ける多視点画像圧縮伝送システムの受信側の構成図であ
る。図34において、103bは送信側の画像圧縮符号
化部102が圧縮符号化したカメラ1とカメラ4の画像
データを復号化伸長する復号化画像伸長部、104bは
復号化画像伸長部103bが復号化伸長したカメラ1と
カメラ4の画像から、カメラ2とカメラ3の視点での画
像を予測し生成する中間視点画像生成部、106はカメ
ラ2とカメラ3の視点での予測画像の予測誤差(残差)
を復号化し伸長する復号化残差伸長部である。復号化画
像伸長部103bおよび中間視点画像生成部104bの
動作については、送信側の復号化画像伸長部103aお
よび中間視点画像生成部104aの動作と同一であるの
で説明を省略し、以下に復号化残差伸長部の動作につい
て説明する。
FIG. 34 is a block diagram of the receiving side of the multi-viewpoint image compression transmission system according to the sixth embodiment of the present invention. In FIG. 34, reference numeral 103b denotes a decoded image decompression unit for decoding and decompressing the image data of the cameras 1 and 4 compressed and encoded by the image compression / encoding unit 102 on the transmission side, and reference numeral 104b denotes a decoded image decompression unit 103b. An intermediate viewpoint image generation unit 106 for predicting and generating images at the viewpoints of the cameras 2 and 3 from the expanded images of the cameras 1 and 4, and a prediction error (remaining error) of the prediction images at the viewpoints of the cameras 2 and 3. difference)
Is a decoding residual expansion unit that decodes and expands. The operations of the decoded image decompression unit 103b and the intermediate viewpoint image generation unit 104b are the same as the operations of the decoded image decompression unit 103a and the intermediate viewpoint image generation unit 104a on the transmitting side, and therefore the description is omitted. The operation of the residual extension unit will be described.

【0152】復号化残差伸長部106は、送信側の残差
圧縮符号化部105によって圧縮符号化されたカメラ2
とカメラ3の視点での予測画像の予測誤差(残差)を復
号化し伸長する。図35は、復号化残差伸長部106の
構成の一例を示す。図35において、114bは復号化
手段、109d,109eは逆量子化手段、110d,
110eは逆DCT手段である。圧縮符号化されたカメ
ラ2とカメラ3の画像の残差データは、復号化手段11
4bによって復号化され、それぞれ、逆量子化手段10
9d,109eにより逆量子化され、逆DCT手段11
0d,110eにより伸長される。復号化伸長されたカ
メラ2とカメラ3の画像の残差を、中間視点画像生成部
104bによって生成された画像にそれぞれ重畳するこ
とにより、カメラ2とカメラ3の視点の画像を復元す
る。
The decoding residual decompression unit 106 is the camera 2 that has been compression-encoded by the residual compression encoding unit 105 on the transmission side.
And the prediction error (residual error) of the prediction image from the viewpoint of the camera 3 is decoded and decompressed. FIG. 35 shows an example of the configuration of the decoding residual decompression unit 106. In FIG. 35, reference numeral 114b denotes a decoding unit, 109d and 109e denote inverse quantization units, and 110d,
110e is an inverse DCT means. The compression-encoded residual data of the images of the camera 2 and the camera 3 is supplied to a decoding unit 11.
4b, respectively, and the inverse quantization means 10
9d and 109e, inversely quantized, and inverse DCT means 11
0d and 110e. The images of the viewpoints of the cameras 2 and 3 are restored by superimposing the residuals of the decoded and expanded images of the cameras 2 and 3 on the images generated by the intermediate viewpoint image generating unit 104b.

【0153】以上のように、本実施の形態によれば、送
信側で、多視点画像中の隣接しない2つの画像からその
中間視点の画像を生成し、その生成した中間視点画像と
その中間視点の実際の画像との残差を求め、上記2つの
画像と中間視点画像の残差とを圧縮符号化して伝送す
る。受信側で、伝送されてきた2つの画像と中間視点画
像の残差とを復号化伸長し、2つの画像から中間視点の
画像を生成し、復号化伸長した中間視点画像の残差を重
畳して中間視点での実際の画像に対応する画像を復元す
る。このようにすることにより、多視点画像を効率よ
く、また、画質を維持して圧縮伝送することができる。
As described above, according to the present embodiment, the transmitting side generates an intermediate viewpoint image from two non-adjacent images in a multi-viewpoint image, and generates the generated intermediate viewpoint image and the intermediate viewpoint image. Of the two images and the residual of the intermediate viewpoint image are compressed and transmitted. The receiving side decodes and expands the two transmitted images and the residual of the intermediate viewpoint image, generates an intermediate viewpoint image from the two images, and superimposes the residual of the decoded and expanded intermediate viewpoint image. To restore the image corresponding to the actual image at the intermediate viewpoint. By doing so, it is possible to efficiently transmit the multi-viewpoint image while maintaining the image quality.

【0154】なお、中間視点画像の生成は、多視点画像
の両端の2視点(カメラ1とカメラ4の視点)での画像
から中間視点での画像を生成する構成に限る必要はな
く、例えば、カメラ2とカメラ4の画像からカメラ1と
カメラ3の視点での画像を生成してもよく、カメラ1と
カメラ3の画像からカメラ2とカメラ4の視点での画像
を生成してもよい。更には、カメラ2とカメラ3の画像
からカメラ1とカメラ4の視点での画像を生成してもよ
く、それぞれ本発明に含まれる。
The generation of the intermediate viewpoint image need not be limited to a configuration in which the image at the intermediate viewpoint is generated from the images at the two viewpoints (viewpoints of camera 1 and camera 4) at both ends of the multi-viewpoint image. An image from the viewpoints of the cameras 1 and 3 may be generated from the images of the cameras 2 and 4, and an image from the viewpoints of the cameras 2 and 4 may be generated from the images of the cameras 1 and 3. Further, images from the viewpoints of the cameras 1 and 4 may be generated from the images of the cameras 2 and 3, which are included in the present invention.

【0155】また、多視点画像の視点数は4視点に限る
必要はなく、また、2視点以上の視点での画像からそれ
ぞれの視点間の中間視点画像を生成してもよいのは明ら
かであり、本発明に含まれる。
It is apparent that the number of viewpoints of the multi-viewpoint image need not be limited to four, and an intermediate viewpoint image between the viewpoints may be generated from images at two or more viewpoints. , Included in the present invention.

【0156】また、本発明の第3および第4の実施の形
態において、初期視差推定値の信頼性評価値としては、
(数23)に示すものに限る必要はなく、(数23)の
分子のみを信頼性評価値としても、参照画像の輝度こう
配の影響を受けるがほぼ同様の効果を得ることができ本
発明に含まれる。
In the third and fourth embodiments of the present invention, the reliability evaluation value of the estimated initial disparity value is as follows.
It is not necessary to limit to the one shown in (Equation 23). Even if only the numerator of (Equation 23) is used as the reliability evaluation value, the effect of the luminance gradient of the reference image can be obtained, but almost the same effect can be obtained. included.

【0157】また、画像のノイズレベルが低い場合に
は、信頼性評価値としてノイズ項を無視した値を計算し
ても同様の効果が得られるのは当然であり本発明に含ま
れる。
When the noise level of the image is low, the same effect is naturally obtained even if a value ignoring the noise term is calculated as the reliability evaluation value, which is included in the present invention.

【0158】さらに簡略化して、信頼性評価値として、
1画素当たりの残差平方和の最小値、あるいは残差平方
和の最小値を用いてもよく、より簡単な回路で計算が可
能となり、本発明に含まれる。
[0158] To further simplify, as a reliability evaluation value,
The minimum value of the residual sum of squares per pixel or the minimum value of the residual sum of squares may be used, and the calculation can be performed with a simpler circuit, which is included in the present invention.

【0159】また、初期視差推定値の信頼性評価値とし
ては、(数32)に示す双方向に推定した視差の差異を
用いてもよく、本発明に含まれる。
As the reliability evaluation value of the estimated initial disparity value, the difference of the disparity estimated bidirectionally as shown in (Equation 32) may be used and is included in the present invention.

【0160】[0160]

【数32】 (Equation 32)

【0161】また、初期視差推定の信頼性評価値として
は、上記のものを2つ以上組み合わせて用いることによ
り、より安定した信頼性評価をすることができ、本発明
に含まれる。
Further, as a reliability evaluation value of the initial parallax estimation, a more stable reliability evaluation can be performed by using a combination of two or more of the above, and is included in the present invention.

【0162】また、本発明の第3および第4の実施の形
態において、初期視差推定のための画像間の相関演算は
残差平方和(SSD)に限る必要はなく、残差絶対値和
(SAD)を用いても同様の効果を得ることができ、そ
のような実施の形態ももちろん本発明に含まれる。
In the third and fourth embodiments of the present invention, the correlation calculation between images for initial parallax estimation need not be limited to the sum of squares of residuals (SSD), but the sum of absolute values of residuals (SSD). The same effect can be obtained by using (SAD), and such an embodiment is of course included in the present invention.

【0163】また、本発明の第6の実施の形態におい
て、隣接しない2つの視点での画像の圧縮符号化の方法
としては、画像間(視点間)の相関を利用したものに限
る必要はなく、時間方向の相関を利用したものを用いて
もよく、本発明に含まれる。
In the sixth embodiment of the present invention, the method of compressing and encoding an image at two non-adjacent viewpoints need not be limited to a method utilizing correlation between images (between viewpoints). Alternatively, one utilizing correlation in the time direction may be used and is included in the present invention.

【0164】[0164]

【発明の効果】以上のように本発明によれば、カメラの
撮像面(CCD)のサイズと、撮像面とレンズ中心との
距離と、レンズの焦点距離に関する情報とを付加して伝
送することにより、撮影時の視野角に応じた表示を行お
うとする際、被写体に接近して撮影した映像について
も、表示側で撮影時の視野角を精度よく計算することが
でき、撮影時と同一の視野角を再現する観察距離を精度
よく決定できる。
As described above, according to the present invention, the size of the imaging surface (CCD) of the camera, the distance between the imaging surface and the center of the lens, and the information on the focal length of the lens are added and transmitted. By this, when trying to display according to the viewing angle at the time of shooting, even for an image shot close to the subject, the viewing angle at the time of shooting can be accurately calculated on the display side, and the same as at the time of shooting The observation distance for reproducing the viewing angle can be accurately determined.

【0165】また、多視点画像を伝送する際に画像内の
最近点、最遠点の情報を付加することにより、表示時に
目の疲れない表示(視差制御)を行うことができる。
Further, by adding information of the nearest point and the farthest point in the image when transmitting a multi-viewpoint image, it is possible to perform display (parallax control) without eyestrain at the time of display.

【0166】また、人の目の融合範囲に応じた視差制御
を行うことによって、表示時に画像のより多くの部分で
視差を融合範囲内に入るようにすることができる。
Further, by performing parallax control in accordance with the fusion range of human eyes, it is possible to cause the parallax to fall within the fusion range in more parts of the image during display.

【0167】また、伝送側において、付加する最近点、
最遠点の情報として、実際の画像中の最近点、最遠点と
は異なる値を設定し、表示側において該設定値の最近点
に相当する視差と、最遠点に相当する視差の平均の視差
が、融合範囲の中央になるように視差制御することによ
り、画像作成者の意図する奥行きでの画像を優先的に観
察者に提示することができる。
On the transmission side, the nearest point to be added,
As the information of the farthest point, the nearest point in the actual image, a value different from the farthest point is set, and the parallax corresponding to the nearest point of the set value and the average of the parallax corresponding to the farthest point on the display side. By controlling the parallax so that the parallax of the image is in the center of the fusion range, an image at the depth intended by the image creator can be preferentially presented to the observer.

【0168】また、本発明によれば、ブロックマッチン
グによる視差推定値の信頼性が低い領域において、物体
輪郭線を検出し、検出した物体輪郭線の所で視差が不連
続に変化するように視差推定を行うことができる。
Further, according to the present invention, an object contour is detected in a region where the reliability of a parallax estimation value obtained by block matching is low, and the parallax is changed discontinuously at the detected object contour. An estimate can be made.

【0169】また、任意の形状の物体輪郭線の所で視差
が不連続に変化するように視差推定を行うことができ
る。。
Further, it is possible to perform parallax estimation so that the parallax changes discontinuously at an object contour line having an arbitrary shape. .

【0170】また、送信側で視差の穴埋め処理(本発明
による、視差が物体輪郭線の所で変化し、かつ、周囲の
視差と滑らかに接続する視差推定処理)を行うことによ
り、受信側での演算量を低減することができ、受信側の
装置規模を縮小することができる。
By performing a parallax filling process (a parallax estimating process according to the present invention in which the parallax changes at the object contour line and smoothly connects to the surrounding parallax) on the transmitting side, Can be reduced, and the scale of the device on the receiving side can be reduced.

【0171】また、多視点画像伝送システムの送信側と
受信側の双方で中間視点画像の生成を行うことにより、
中間視点画像の伝送量(残差の伝送量)を少なくするこ
とができ、その結果多視点画像を効率よく、また、画質
を維持して圧縮伝送することができる。
By generating an intermediate viewpoint image on both the transmitting side and the receiving side of the multi-viewpoint image transmission system,
The transmission amount of the intermediate viewpoint image (the transmission amount of the residual) can be reduced, and as a result, the multi-view image can be compressed and transmitted efficiently while maintaining the image quality.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態における平行投影の
場合の最近点、最遠点、観察者の輻輳と調節が一致する
点の位置関係を示す図
FIG. 1 is a diagram illustrating a positional relationship between a nearest point, a farthest point, and a point where a vergence of an observer coincides with adjustment in parallel projection according to the first embodiment of the present invention.

【図2】同被写体の位置、合焦時の撮像面の位置と焦点
距離の関係を示す図
FIG. 2 is a diagram showing the relationship between the position of the subject, the position of the imaging surface at the time of focusing, and the focal length.

【図3】同2つのプロジェクタを用いて輻輳投影をする
場合の輻輳距離、最近点、最遠点の位置関係を示す図
FIG. 3 is a diagram showing a convergence distance and a positional relationship between a nearest point and a farthest point when convergence projection is performed using the two projectors.

【図4】本発明の第1の実施の形態における画像伝送方
法で定義するパラメータを示す図
FIG. 4 is a diagram showing parameters defined in the image transmission method according to the first embodiment of the present invention.

【図5】画像間の視差の平均値を相殺するようにずらす
処理のブロック図
FIG. 5 is a block diagram of processing for shifting an average value of parallax between images so as to cancel each other.

【図6】左画像を基準としてブロックマッチングにより
視差を計算する場合を示す図
FIG. 6 is a diagram showing a case where parallax is calculated by block matching based on a left image.

【図7】平行撮影の場合を示す図FIG. 7 is a diagram showing a case of parallel shooting;

【図8】輻輳撮影の場合を示す図FIG. 8 is a diagram showing a case of convergence imaging;

【図9】(a)〜(c)は、(数14)による重み付け
平均の計算に用いる重みの分布の例を示す図
FIGS. 9A to 9C are diagrams illustrating examples of weight distributions used for calculating a weighted average according to (Equation 14).

【図10】画像復号手段の動作を示す図FIG. 10 is a diagram showing the operation of an image decoding unit.

【図11】本発明の第2の実施の形態における視差制御
方式のブロック図
FIG. 11 is a block diagram of a parallax control method according to a second embodiment of the present invention.

【図12】シフト演算手段の構成の一例を示す図FIG. 12 is a diagram illustrating an example of the configuration of a shift operation unit.

【図13】融合範囲テーブルの特性図FIG. 13 is a characteristic diagram of a fusion range table.

【図14】(数16)の図形的な意味を示す図FIG. 14 is a diagram showing the graphical meaning of (Equation 16);

【図15】視差の頻度分布図FIG. 15 is a parallax frequency distribution diagram.

【図16】本発明の第3の実施の形態による視差推定装
置の構成図
FIG. 16 is a configuration diagram of a disparity estimation device according to a third embodiment of the present invention.

【図17】同ブロックマッチングを示す図FIG. 17 is a diagram showing the block matching.

【図18】同輪郭検出部の構成図FIG. 18 is a configuration diagram of the contour detection unit.

【図19】同エッジ検出部の構成の一例を示す構成図FIG. 19 is a configuration diagram showing an example of the configuration of the edge detection unit.

【図20】(a)〜(f)は、同方向別のフィルタの重
み係数の例を示す図
FIGS. 20A to 20F are diagrams illustrating examples of weighting factors of filters in the same direction;

【図21】同稜線検出部の構成図FIG. 21 is a configuration diagram of the ridge line detection unit.

【図22】同物体輪郭付近での視差推定部の構成図FIG. 22 is a configuration diagram of a parallax estimating unit near the object contour;

【図23】本発明の第4の実施の形態による視差推定装
置の構成図
FIG. 23 is a configuration diagram of a disparity estimation device according to a fourth embodiment of the present invention.

【図24】同物体輪郭線近傍での視差推定を示す図FIG. 24 is a view showing parallax estimation in the vicinity of the contour of the object;

【図25】本発明の第5の実施の形態で送信側で視差推
定を行うシステムの送信部の構成図
FIG. 25 is a configuration diagram of a transmission unit of a system that performs parallax estimation on the transmission side according to the fifth embodiment of the present invention.

【図26】本発明の第5の実施の形態で送信側で視差推
定を行うシステムの受信部の構成図
FIG. 26 is a configuration diagram of a receiving unit of a system that performs parallax estimation on the transmitting side according to the fifth embodiment of the present invention.

【図27】本発明の第6の実施の形態における多視点画
像伝送システムの送信部の構成図
FIG. 27 is a configuration diagram of a transmission unit of a multi-view image transmission system according to a sixth embodiment of the present invention.

【図28】MPEG−2シンタックスの概略図FIG. 28 is a schematic diagram of MPEG-2 syntax.

【図29】伝送される多視点画像の時空間方向の関係図FIG. 29 is a diagram showing the relationship between a spatio-temporal direction of a transmitted multi-viewpoint image

【図30】OpenGLによるカメラパラメータの定義
を示す図
FIG. 30 is a diagram showing definition of camera parameters by OpenGL.

【図31】本発明の第6の実施の形態における多視点画
像伝送システムの画像圧縮符号化部の構成の一例を示す
FIG. 31 is a diagram illustrating an example of a configuration of an image compression encoding unit of a multi-view image transmission system according to a sixth embodiment of the present invention.

【図32】本発明の第6の実施の形態における多視点画
像伝送システムの復号化画像伸長部の構成の一例を示す
FIG. 32 is a diagram illustrating an example of a configuration of a decoded image decompression unit of the multi-view image transmission system according to the sixth embodiment of the present invention.

【図33】本発明の第6の実施の形態における多視点画
像伝送システムの残差圧縮符号化部の構成の一例を示す
FIG. 33 is a diagram illustrating an example of a configuration of a residual compression encoding unit of the multi-view image transmission system according to the sixth embodiment of the present invention.

【図34】本発明の第6の実施の形態における多視点画
像伝送システムの受信部の構成図
FIG. 34 is a configuration diagram of a receiving unit of the multi-view image transmission system according to the sixth embodiment of the present invention.

【図35】本発明の第6の実施の形態における多視点画
像伝送システムの復号化残差伸長部の構成の一例を示す
FIG. 35 is a diagram illustrating an example of a configuration of a decoding residual decompression unit of the multi-view image transmission system according to the sixth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

A 表示される画像の最近点 B 最遠点 C 観察者の輻輳と調節が一致する点 A1,A2 カメラのレンズ中心 B1,B2 画像面の中心 C1 輻輳点 201 初期視差推定部 202 初期視差推定時の信頼性評価部 203 輪郭検出部 204 物体輪郭付近での視差推定部 A Nearest point of displayed image B Farthest point C Point at which convergence and adjustment of observer coincide A1 and A2 Camera lens centers B1 and B2 Center of image plane C1 Convergence point 201 Initial disparity estimation unit 202 Initial disparity estimation Reliability evaluation section 203 contour detection section 204 parallax estimation section near object contour

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 2視点以上の画像の伝送において、融合
範囲内に納まるように、画像内の距離または視差の範囲
を付加して伝送し、その伝送された前記距離または視差
の範囲及び融合範囲を考慮して前記画像を表示すること
を特徴とする多視点画像伝送及び表示方法。
1. In transmission of an image of two or more viewpoints, a distance or a parallax range in an image is added and transmitted so as to be within the fusion range, and the transmitted distance or parallax range and the fusion range are transmitted. And displaying the image in consideration of the following.
【請求項2】 2視点以上の画像の伝送において、カメ
ラの撮像サイズ及びレンズ中心と撮像面との距離の情報
を付加して伝送することにより、表示側において撮像時
の視野角の情報を得ることができることを特徴とする多
視点画像伝送方法。
2. In transmitting images from two or more viewpoints, information on the image pickup size of the camera and information on the distance between the lens center and the image pickup surface are added and transmitted to obtain information on the viewing angle at the time of image pickup on the display side. And a multi-view image transmission method.
【請求項3】 前記画像間の視差毎の頻度を求め、その
視差毎の頻度が前記融合範囲内で最大となるように視差
制御して前記2視点以上の画像を表示することを特徴と
する請求項1記載の多視点画像伝送及び表示方法。
3. The method according to claim 1, wherein a frequency for each parallax between the images is obtained, and parallax control is performed so that the frequency for each parallax is maximized in the fusion range to display images of the two or more viewpoints. The multi-view image transmission and display method according to claim 1.
【請求項4】 前記画像間の視差の平均を求め、その視
差の平均が前記融合範囲の中央と一致するように視差制
御して前記2視点以上の画像を表示することを特徴とす
る多視点画像伝送及び表示方法。
4. A multi-viewpoint, wherein an average of parallax between the images is obtained, and parallax control is performed so that the average of the parallax coincides with the center of the fusion range to display images of the two or more viewpoints. Image transmission and display method.
【請求項5】 伝送側において画像中の最近点、最遠点
を設定し、表示側において該最近点に相当する視差と最
遠点に相当する視差の平均が融合範囲の中央と一致する
ように視差制御して前記2視点以上の画像を表示するこ
とにより、画像作成者が意図する奥行きでの画像を優先
的に見やすく表示することを特徴とする多視点画像伝送
及び表示方法。
5. The nearest point and the farthest point in an image are set on the transmission side, and the average of the parallax corresponding to the nearest point and the parallax corresponding to the farthest point on the display side coincides with the center of the fusion range. A multi-viewpoint image transmission and display method, wherein an image at a depth intended by an image creator is displayed in an easy-to-view manner by displaying parallax-controlled images at two or more viewpoints.
【請求項6】 2つの画像の初期視差と初期視差の信頼
性評価値とを計算し、前記信頼性評価値と前記画像のエ
ッジ検出結果とを用いて視差が不連続に変化する物体輪
郭線を抽出し、前記信頼性評価値に基づき前記初期視差
の信頼性の低い領域を抽出し、その抽出した初期視差の
信頼性の低い領域における視差は、周囲の視差に対して
滑らかに接続するように設定し、かつ、前記物体輪郭線
においては変化するように決定することにより、前記物
体輪郭線において不連続に変化する視差推定を行うこと
を特徴とする視差推定方法。
6. An object contour line in which an initial parallax of two images and a reliability evaluation value of the initial parallax are calculated, and the parallax changes discontinuously using the reliability evaluation value and an edge detection result of the images. Is extracted based on the reliability evaluation value, and an area with low reliability of the initial parallax is extracted.The extracted parallax in the area with low reliability of the initial parallax is smoothly connected to surrounding parallax. And determining that the object contour changes so as to perform a disparity estimation that changes discontinuously in the object contour.
【請求項7】 初期視差の信頼性の低い領域における視
差は、前記視差と、前記物体輪郭線とを用いて定義した
視差分布のエネルギーを最小化するように決定すること
を特徴とする請求項6記載の視差推定方法。
7. The disparity in an area where the initial disparity is unreliable is determined so as to minimize the energy of a disparity distribution defined using the disparity and the object contour. 6. The disparity estimation method according to 6.
【請求項8】 前記エッジ検出は、周波数特性の異なる
方向別フィルタの各出力を統合して行うことを特徴とす
る請求項6、又は7記載の視差推定方法。
8. The disparity estimation method according to claim 6, wherein the edge detection is performed by integrating outputs of filters for different directions having different frequency characteristics.
【請求項9】 前記エッジ検出は、前記周波数特性の異
なる方向別フィルタの各出力の統合結果に対して、更に
稜線抽出を行うことを特徴とする請求項8記載の視差推
定方法。
9. The disparity estimation method according to claim 8, wherein in the edge detection, a ridge line is further extracted from an integration result of each output of the direction-dependent filters having different frequency characteristics.
【請求項10】 前記初期視差の信頼性評価値は、初期
視差計算時の残差平方和を用いることを特徴とする請求
項6〜9のいずれかに記載の視差推定方法。
10. The disparity estimation method according to claim 6, wherein the reliability evaluation value of the initial disparity uses a residual sum of squares at the time of initial disparity calculation.
【請求項11】 前記初期視差の信頼性評価値は、初期
視差計算時の1画素当たりの残差平方和を用いることを
特徴とする請求項6〜9のいずれかに記載の視差推定方
法。
11. The parallax estimating method according to claim 6, wherein the reliability evaluation value of the initial parallax uses a residual sum of squares per pixel at the time of initial parallax calculation.
【請求項12】 前記初期視差の信頼性評価値は、初期
視差計算時の残差平方和、画像のノイズレベル、及び輝
度勾配を用いて計算することを特徴とする請求項6〜9
のいずれかに記載の視差推定方法。
12. The reliability evaluation value of the initial disparity is calculated using a residual sum of squares at the time of initial disparity calculation, a noise level of an image, and a luminance gradient.
The parallax estimation method according to any one of the above.
【請求項13】 前記初期視差の信頼性評価値は、左右
双方の画像を基準として計算した初期視差の対応の差異
を用いて計算することを特徴とする請求項6〜9のいず
れかに記載の視差推定方法。
13. The method according to claim 6, wherein the reliability evaluation value of the initial parallax is calculated using a difference between correspondences of the initial parallax calculated based on both left and right images. Parallax estimation method.
【請求項14】 前記初期視差の信頼性評価値は、請求
項10〜13のいずれかに記載の前記視差推定方法の2
つ以上を組み合わせて計算することを特徴とする視差推
定方法。
14. The parallax estimating method according to claim 10, wherein the reliability evaluation value of the initial parallax is set to 2 in the parallax estimating method according to claim 10.
A parallax estimating method characterized by calculating by combining at least two.
【請求項15】 2眼式画像から左右それぞれの画像を
基準とした初期視差と初期視差の信頼性評価値を計算
し、初期視差が正しく計算できない領域での視差は請求
項6〜14のいずれかに記載の方法によって再計算し、
前記2眼式画像の一方の画像と該一方の画像を基準とし
た前記再計算後の視差から前記2眼式画像の他方の画像
を予測して予測誤差を計算し、前記一方の画像を基準と
した視差から他方の画像を基準とした前記再計算後の視
差を予測して予測誤差を計算し、前記2眼式画像の一方
の画像と該一方の画像を基準とした前記再計算後の視差
と前記2眼式画像の他方の画像の予測誤差と前記他方の
画像を基準とした再計算後の視差の予測誤差とを符号化
し伝送する送信部と、前記伝送された符号化信号を受信
し、その受信信号から前記2眼式画像及び前記再計算後
の視差を復号化し、その復号された2眼式画像及び復号
された再計算後の視差を用いて中間視点画像を生成し、
その中間視点画像及び前記2眼式画像を併せて多眼式画
像として表示する受信部とを備えたことを特徴とする画
像伝送装置。
15. The parallax in an area where the initial parallax and the reliability evaluation value of the initial parallax are calculated based on the left and right images from the binocular image, and the initial parallax cannot be correctly calculated. Recalculate by the method described in
A prediction error is calculated by predicting one image of the binocular image and the other image of the binocular image from the recalculated disparity based on the one image, and calculating the prediction error based on the one image. The parallax after the recalculation based on the other image is predicted from the parallax and a prediction error is calculated, and one of the two-lens images and the one after the recalculation based on the one image are calculated. A transmission unit that encodes and transmits the disparity, the prediction error of the other image of the binocular image, and the prediction error of the disparity after recalculation based on the other image, and receives the transmitted encoded signal. And decoding the binocular image and the recalculated disparity from the received signal, and generating an intermediate viewpoint image using the decoded binocular image and the decoded recalculated disparity,
An image transmission device comprising: a receiving unit that displays the intermediate viewpoint image and the binocular image together as a multiview image.
【請求項16】 多眼式画像のうち2つの画像を用い、
その2つの画像から一方の画像を基準として視差を求
め、その視差を利用して他方の画像における予測誤差を
求め、それら求めた一方の画像、視差、予測誤差を符号
化して送出する画像圧縮符号化手段、前記符号化された
一方の画像、視差、予測誤差から復号したデータを用い
て、前記2つの画像以外の前記多眼式画像の残りの画像
に対応する視点における画像を生成する中間視点画像生
成手段及び、その中間視点画像生成手段により生成され
た前記画像と前記多眼式画像の前記残りの画像との残差
を符号化して送出する残差圧縮符号化手段を有する送信
部と、 前記符号化された一方の画像、視差、予測誤差を受信し
て前記2つの画像を復号し、出力する復号化画像伸長手
段、前記復号した2つの画像を用いて、前記2つの画像
以外の前記多眼式画像の残りの画像に対応する視点にお
ける画像を生成する中間視点画像生成手段、前記符号化
された残差を受信して復号する復号化残差伸長手段及
び、前記中間視点画像生成手段により生成された画像と
前記復号された残差とを用いて前記多眼式画像の残りの
画像を復元する手段を有する受信部とを備えたことを特
徴とする画像伝送装置。
16. Using two images among multi-view images,
From the two images, a parallax is calculated based on one image, a prediction error in the other image is calculated using the parallax, and the obtained image, parallax, and prediction error are encoded and transmitted. Intermediate means for generating an image at a viewpoint corresponding to the remaining image of the multiview image other than the two images, using data decoded from one of the encoded images, parallax, and prediction error An image generation unit, and a transmission unit including a residual compression encoding unit that encodes and transmits a residual between the image generated by the intermediate viewpoint image generation unit and the remaining image of the multiview image, One of the encoded images, the disparity, the decoded image is decoded and the two images are received and decoded by using the decoded image decompression means for outputting the two images. Many An intermediate viewpoint image generation unit that generates an image at a viewpoint corresponding to the remaining image of the eye-type image, a decoding residual extension unit that receives and decodes the encoded residual, and the intermediate viewpoint image generation unit. An image transmission device, comprising: a receiving unit having means for restoring a remaining image of the multiview image using a generated image and the decoded residual.
【請求項17】 前記視差を求める場合に、請求項6〜
14のいずれかの前記視差推定方法を利用することを特
徴とする請求項16記載の画像伝送装置。
17. The method according to claim 6, wherein the parallax is obtained.
17. The image transmission apparatus according to claim 16, wherein the method uses any one of the parallax estimating methods according to claim 14.
【請求項18】 送信部が、多眼式画像から代表画像を
選択し、選択されなかった画像は、該画像をはさんで視
点方向が最も近い2枚の代表画像をそれぞれ基準画像と
して請求項6〜14に記載のいずれかの方法によって計
算した視差と前記2枚の代表画像とを用いて予測し、前
記選択されなかった画像と予測画像の残差を計算し、前
記代表画像と前記選択されなかった画像の予測誤差を符
号化して伝送し、受信部が、その伝送された符号化信号
を受信し、前記代表画像を復号化し、送信部で代表画像
に選択されなかった画像を送信部と同一の方法によって
予測し、前記選択されなっかた画像の予測誤差を復号化
し、前記予測誤差を前記予測画像に重畳して多視点画像
を復元することを特徴とする多視点画像伝送方法。
18. The transmitting unit selects a representative image from the multi-view images, and for the unselected image, the two representative images having the closest viewpoint direction across the image are used as reference images. A prediction is performed using the parallax calculated by any of the methods described in 6 to 14 and the two representative images, a residual between the unselected image and the predicted image is calculated, and the representative image and the selection are calculated. Encoding and transmitting the prediction error of the image that has not been transmitted, the receiving unit receives the transmitted coded signal, decodes the representative image, and transmits the image not selected as the representative image by the transmitting unit. A multi-view image transmission method, wherein prediction is performed by the same method as described above, a prediction error of the non-selected image is decoded, and the prediction error is superimposed on the predicted image to restore a multi-view image.
【請求項19】 前記代表画像の符号化は、1枚の代表
画像と該代表画像を基準として他の代表画像について計
算した視差から他の代表画像を予測し、前記一枚の代表
画像と前記他の代表画像の予測誤差を符号化することに
より行うことを特徴とする請求項18記載の多視点画像
伝送方法。
19. The encoding of the representative image includes predicting another representative image from one representative image and parallax calculated for another representative image based on the representative image, and encoding the one representative image and the representative image. 19. The multi-view image transmission method according to claim 18, wherein the method is performed by encoding a prediction error of another representative image.
JP08359997A 1996-04-05 1997-04-02 Multi-view image transmission method and multi-view image display method Expired - Fee Related JP3477023B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08359997A JP3477023B2 (en) 1996-04-05 1997-04-02 Multi-view image transmission method and multi-view image display method

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP8-83688 1996-04-05
JP8368896 1996-04-05
JP8-118711 1996-05-14
JP11871196 1996-05-14
JP08359997A JP3477023B2 (en) 1996-04-05 1997-04-02 Multi-view image transmission method and multi-view image display method

Related Child Applications (3)

Application Number Title Priority Date Filing Date
JP2003154401A Division JP3733359B2 (en) 1996-04-05 2003-05-30 Disparity estimation method, image transmission method, image display method, multi-view image transmission method, multi-view image restoration method, and disparity estimation apparatus
JP2003154399A Division JP3735617B2 (en) 1996-04-05 2003-05-30 Multi-view image transmission method, multi-view image display method, and multi-view image display device
JP2003154400A Division JP3733358B2 (en) 1996-04-05 2003-05-30 Image transmission apparatus, transmission apparatus, reception apparatus, transmission method, and reception method

Publications (2)

Publication Number Publication Date
JPH1032840A true JPH1032840A (en) 1998-02-03
JP3477023B2 JP3477023B2 (en) 2003-12-10

Family

ID=27304273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08359997A Expired - Fee Related JP3477023B2 (en) 1996-04-05 1997-04-02 Multi-view image transmission method and multi-view image display method

Country Status (1)

Country Link
JP (1) JP3477023B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6205241B1 (en) 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
WO2007077989A1 (en) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
JP2007519285A (en) * 2003-11-26 2007-07-12 三菱電機株式会社 System for encoding multiple videos acquired from moving objects in a scene with multiple fixed cameras
JP2008034892A (en) * 2006-03-28 2008-02-14 Victor Co Of Japan Ltd Multi-viewpoint image encoder
JP2008034893A (en) * 2006-03-28 2008-02-14 Victor Co Of Japan Ltd Multi-viewpoint image decoder
JP2009512316A (en) * 2005-10-11 2009-03-19 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding apparatus and method using camera parameters, and recording medium on which a program for performing the method is recorded
JP2009516447A (en) * 2005-11-17 2009-04-16 ノキア コーポレイション Method and apparatus for generating, transferring and processing three-dimensional image data
JP2011029905A (en) * 2009-07-24 2011-02-10 Fujifilm Corp Imaging device, method and program
JP2011511532A (en) * 2008-01-29 2011-04-07 トムソン ライセンシング Method and system for converting 2D image data into stereoscopic image data
WO2011043022A1 (en) * 2009-10-08 2011-04-14 株式会社ニコン Image display device and image display method
JP4825983B2 (en) * 2005-07-26 2011-11-30 国立大学法人名古屋大学 Image information compression method and free viewpoint television system
JP2012010084A (en) * 2010-06-24 2012-01-12 Sony Corp Three-dimensional display device and control method of three-dimensional display device
JP2012044308A (en) * 2010-08-16 2012-03-01 Sharp Corp Three dimensional image output device and three dimensional image display device
US8131064B2 (en) 2002-03-27 2012-03-06 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
WO2012060406A1 (en) * 2010-11-05 2012-05-10 シャープ株式会社 Device for creating stereoscopic image data, device for playing back stereoscopic image data, and file management method
WO2012077420A1 (en) * 2010-12-09 2012-06-14 ソニー株式会社 Image processing device, image processing method, and program
US8204133B2 (en) 2004-10-12 2012-06-19 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
JP2012138787A (en) * 2010-12-27 2012-07-19 Sony Corp Image processor, image processing method, and program
KR101202014B1 (en) * 2011-02-18 2012-11-15 주식회사 넥서스칩스 Image processor, stereoscopic display device and method for processing image using the same
JP2012529787A (en) * 2009-06-05 2012-11-22 クゥアルコム・インコーポレイテッド Encoding of 3D conversion information performed with 2D video sequence (ENCODINGOFTHREE-DIMENSIONALCONVERSIONIONFORMATIONWITHWO-DIMENSIONALVIDEODEEQUENCE)
WO2013054632A1 (en) * 2011-10-13 2013-04-18 ソニー株式会社 Image processing device, image processing unit, and program
US8711208B2 (en) 2010-12-24 2014-04-29 Fujifilm Corporation Imaging device, method and computer readable medium
JP5547356B2 (en) * 2012-03-30 2014-07-09 富士フイルム株式会社 Imaging apparatus, method, storage medium, and program
JP2014235615A (en) * 2013-06-03 2014-12-15 富士通株式会社 Image processing apparatus, image processing circuit, image processing program, and image processing method
JP2015521407A (en) * 2012-05-02 2015-07-27 コーニンクレッカ フィリップス エヌ ヴェ Quality metrics for processing 3D video

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6205241B1 (en) 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
US8559703B2 (en) 2002-03-27 2013-10-15 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8577128B2 (en) 2002-03-27 2013-11-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8254668B2 (en) 2002-03-27 2012-08-28 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8417024B2 (en) 2002-03-27 2013-04-09 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8879824B2 (en) 2002-03-27 2014-11-04 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8472702B2 (en) 2002-03-27 2013-06-25 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8131064B2 (en) 2002-03-27 2012-03-06 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8724886B2 (en) 2002-03-27 2014-05-13 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8577127B2 (en) 2002-03-27 2013-11-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2007519285A (en) * 2003-11-26 2007-07-12 三菱電機株式会社 System for encoding multiple videos acquired from moving objects in a scene with multiple fixed cameras
US8204133B2 (en) 2004-10-12 2012-06-19 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
US8855210B2 (en) 2004-10-12 2014-10-07 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding multi-view video using image stitching
JP4825983B2 (en) * 2005-07-26 2011-11-30 国立大学法人名古屋大学 Image information compression method and free viewpoint television system
KR101244911B1 (en) * 2005-10-11 2013-03-18 삼성전자주식회사 Apparatus for encoding and decoding muti-view image by using camera parameter, and method thereof, a recording medium having a program to implement thereof
JP2009512316A (en) * 2005-10-11 2009-03-19 サムスン エレクトロニクス カンパニー リミテッド Multi-view video encoding and decoding apparatus and method using camera parameters, and recording medium on which a program for performing the method is recorded
JP2009516447A (en) * 2005-11-17 2009-04-16 ノキア コーポレイション Method and apparatus for generating, transferring and processing three-dimensional image data
US8619121B2 (en) 2005-11-17 2013-12-31 Nokia Corporation Method and devices for generating, transferring and processing three-dimensional image data
KR100977255B1 (en) 2006-01-05 2010-08-23 니폰덴신뎅와 가부시키가이샤 Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
WO2007077989A1 (en) * 2006-01-05 2007-07-12 Nippon Telegraph And Telephone Corporation Video encoding method, decoding method, device thereof, program thereof, and storage medium containing the program
JP5234587B2 (en) * 2006-01-05 2013-07-10 日本電信電話株式会社 Video encoding method and decoding method, apparatus thereof, program thereof, and storage medium storing program
US8451894B2 (en) 2006-01-05 2013-05-28 Nippon Telegraph And Telephone Corporation Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs by using parallax compensation
JP2008034893A (en) * 2006-03-28 2008-02-14 Victor Co Of Japan Ltd Multi-viewpoint image decoder
JP2008034892A (en) * 2006-03-28 2008-02-14 Victor Co Of Japan Ltd Multi-viewpoint image encoder
US9137518B2 (en) 2008-01-29 2015-09-15 Thomson Licensing Method and system for converting 2D image data to stereoscopic image data
JP2011511532A (en) * 2008-01-29 2011-04-07 トムソン ライセンシング Method and system for converting 2D image data into stereoscopic image data
JP2015046899A (en) * 2009-06-05 2015-03-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
US9124874B2 (en) 2009-06-05 2015-09-01 Qualcomm Incorporated Encoding of three-dimensional conversion information with two-dimensional video sequence
JP2012529787A (en) * 2009-06-05 2012-11-22 クゥアルコム・インコーポレイテッド Encoding of 3D conversion information performed with 2D video sequence (ENCODINGOFTHREE-DIMENSIONALCONVERSIONIONFORMATIONWITHWO-DIMENSIONALVIDEODEEQUENCE)
JP2011029905A (en) * 2009-07-24 2011-02-10 Fujifilm Corp Imaging device, method and program
JP2011081272A (en) * 2009-10-08 2011-04-21 Nikon Corp Image display device and image display method
KR101427491B1 (en) * 2009-10-08 2014-08-07 가부시키가이샤 니콘 Image display device and image display method
WO2011043022A1 (en) * 2009-10-08 2011-04-14 株式会社ニコン Image display device and image display method
CN102714030A (en) * 2009-10-08 2012-10-03 株式会社尼康 Image display device and image display method
JP2012010084A (en) * 2010-06-24 2012-01-12 Sony Corp Three-dimensional display device and control method of three-dimensional display device
JP2012044308A (en) * 2010-08-16 2012-03-01 Sharp Corp Three dimensional image output device and three dimensional image display device
JP2012100211A (en) * 2010-11-05 2012-05-24 Sharp Corp Stereoscopic image data creating apparatus, stereoscopic image data playback apparatus, and file managing method
WO2012060406A1 (en) * 2010-11-05 2012-05-10 シャープ株式会社 Device for creating stereoscopic image data, device for playing back stereoscopic image data, and file management method
JP2012138885A (en) * 2010-12-09 2012-07-19 Sony Corp Image processing device, image processing method, and program
WO2012077420A1 (en) * 2010-12-09 2012-06-14 ソニー株式会社 Image processing device, image processing method, and program
US9922441B2 (en) 2010-12-09 2018-03-20 Saturn Licensing Llc Image processing device, image processing method, and program
CN103238341A (en) * 2010-12-09 2013-08-07 索尼公司 Image processing device, image processing method, and program
US8711208B2 (en) 2010-12-24 2014-04-29 Fujifilm Corporation Imaging device, method and computer readable medium
JP2012138787A (en) * 2010-12-27 2012-07-19 Sony Corp Image processor, image processing method, and program
KR101202014B1 (en) * 2011-02-18 2012-11-15 주식회사 넥서스칩스 Image processor, stereoscopic display device and method for processing image using the same
WO2013054632A1 (en) * 2011-10-13 2013-04-18 ソニー株式会社 Image processing device, image processing unit, and program
JP5547356B2 (en) * 2012-03-30 2014-07-09 富士フイルム株式会社 Imaging apparatus, method, storage medium, and program
JP2015521407A (en) * 2012-05-02 2015-07-27 コーニンクレッカ フィリップス エヌ ヴェ Quality metrics for processing 3D video
JP2014235615A (en) * 2013-06-03 2014-12-15 富士通株式会社 Image processing apparatus, image processing circuit, image processing program, and image processing method

Also Published As

Publication number Publication date
JP3477023B2 (en) 2003-12-10

Similar Documents

Publication Publication Date Title
JP3477023B2 (en) Multi-view image transmission method and multi-view image display method
US6163337A (en) Multi-view point image transmission method and multi-view point image display method
KR101185870B1 (en) Apparatus and method for processing 3 dimensional picture
JP5414947B2 (en) Stereo camera
US8063930B2 (en) Automatic conversion from monoscopic video to stereoscopic video
US6111979A (en) System for encoding/decoding three-dimensional images with efficient compression of image data
JP5140210B2 (en) Imaging apparatus and image processing method
JP3769850B2 (en) Intermediate viewpoint image generation method, parallax estimation method, and image transmission method
US7944444B2 (en) 3D image processing apparatus and method
JP5204350B2 (en) Imaging apparatus, playback apparatus, and image processing method
JP5320524B1 (en) Stereo camera
JP5204349B2 (en) Imaging apparatus, playback apparatus, and image processing method
US20080205791A1 (en) Methods and systems for use in 3d video generation, storage and compression
JP4942106B2 (en) Depth data output device and depth data receiver
JP2000078611A (en) Stereoscopic video image receiver and stereoscopic video image system
JPH0927969A (en) Method for generating intermediate image of plural images, parallax estimate method and device
KR20140092910A (en) Stereoscopic video coding device, stereoscopic video decoding device, stereoscopic video coding method, stereoscopic video decoding method, stereoscopic video coding program, and stereoscopic video decoding program
JP3733359B2 (en) Disparity estimation method, image transmission method, image display method, multi-view image transmission method, multi-view image restoration method, and disparity estimation apparatus
JP3733358B2 (en) Image transmission apparatus, transmission apparatus, reception apparatus, transmission method, and reception method
JP3735617B2 (en) Multi-view image transmission method, multi-view image display method, and multi-view image display device
JP4815004B2 (en) Multi-view image encoding device
Kim et al. Efficient disparity vector coding for multiview sequences
Edirisinghe et al. Stereo imaging, an emerging technology
Lagendijk et al. Stereoscopic image processing
JP2004242000A (en) Encoding device and method, and decoding device and method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees