JPH0749944A - Method and device for image processing - Google Patents

Method and device for image processing

Info

Publication number
JPH0749944A
JPH0749944A JP5193737A JP19373793A JPH0749944A JP H0749944 A JPH0749944 A JP H0749944A JP 5193737 A JP5193737 A JP 5193737A JP 19373793 A JP19373793 A JP 19373793A JP H0749944 A JPH0749944 A JP H0749944A
Authority
JP
Japan
Prior art keywords
image
input
images
interpolation
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5193737A
Other languages
Japanese (ja)
Inventor
Akihiro Katayama
昭宏 片山
Kouichirou Tanaka
宏一良 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP5193737A priority Critical patent/JPH0749944A/en
Priority to DE69434685T priority patent/DE69434685T2/en
Priority to EP94305725A priority patent/EP0637815B1/en
Publication of JPH0749944A publication Critical patent/JPH0749944A/en
Priority to US08/769,884 priority patent/US6191808B1/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE:To provide the image processor by which an observer can move smoothly a visual point. CONSTITUTION:Images inputted by image input parts 1 and 2 are inputted to an image correcting part 3. In this part, a correction processing such as uneven sensitivity, etc., is executed. The images to which the correction processing is executed by the image correcting part 3 are inputted to an image interpolation processing part 4, and in this part, an image obtained from a visual point being different from two of inputted images is generated by an interpolation processing. The image outputted from the image interpolation processing part 4 is inputted to an image display part 5. In this part, suitable two in the inputted images are handled as a stereo pair, and these two of images are displayed, while switching them alternately at a high speed. In this case, an observer looks at a stereoscopic image by observing it by using shutter spectacles, etc., synchronized therewith.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数の撮像手段(カメ
ラ)により複数の視点から撮影した画像を立体表示する
ための画像処理を行う画像処理方法およびその装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for performing image processing for stereoscopically displaying images taken from a plurality of viewpoints by a plurality of image pickup means (cameras).

【0002】[0002]

【従来の技術】従来、複数の視点から見た画像を立体表
示する装置として、ステレオディスプレイやレンチキュ
ラディスプレイ等がある。ステレオディスプレイは、2
つのカメラからの映像を交互に高速に切り替えて表示
し、観察者はそれに同期するシヤッターメガネや偏光メ
ガネを用いることにより、映像を立体的に観察すること
ができる。また、レンチキュラディスプレイは、例えば
4台のカメラからの画像をそれぞれA,B,C,Dと
し、Aの画素位置(1,1)をA(1,1)と表記する
と、図17に示すようにA,B,C,Dを画素単位に並
べ、前面にレンチキュラシートを張り付けることにより
4視点の映像を立体的に表現することができるというも
のである(電学論C,112巻5号,平成4年,p.
p.281−282、特開平3−269680号公
報)。
2. Description of the Related Art Conventionally, as a device for stereoscopically displaying an image viewed from a plurality of viewpoints, there are a stereo display and a lenticular display. 2 stereo displays
The images from the two cameras are alternately switched at high speed and displayed, and the observer can stereoscopically observe the images by using shutter glasses or polarizing glasses synchronized with the images. Further, in the lenticular display, for example, when images from four cameras are denoted as A, B, C, and D, and the pixel position (1,1) of A is denoted as A (1,1), as illustrated in FIG. By arranging A, B, C, and D on a pixel-by-pixel basis and attaching a lenticular sheet to the front surface, it is possible to three-dimensionally express images from four viewpoints (Electronics Theory C, Vol. 112, No. 5). , 1992, p.
p. 281-282, JP-A-3-269680).

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来例ではカメラで狙った方向の立体像しか観察すること
ができなかった。すなわち、ステレオディスプレイで
は、2台のカメラを固定して物体を撮影した場合、観察
者が視点を移動しても見える画像は同じであった。ま
た、レンチキュラディスプレイでは、観察者の視点の移
動はできるが、それは複数のカメラのどれかから見た画
像をとびとびに見るというものであり、連続的に視点の
移動はできなかった。もし、連続的に表示しようとすれ
ばカメラの台数が飛躍的に多くなり、実用的ではないと
いう欠点があった。
However, in the above-mentioned conventional example, only the stereoscopic image in the direction aimed by the camera can be observed. That is, in a stereo display, when two cameras are fixed and an object is photographed, the image that can be seen is the same even if the observer moves his or her viewpoint. Also, in the lenticular display, the viewpoint of the observer can be moved, but this is to see the images seen from any of the multiple cameras in a sparse manner, and the viewpoint cannot be continuously moved. If you try to display them continuously, the number of cameras will increase dramatically, which is not practical.

【0004】本発明は、上記問題点に鑑みてなされたも
ので、M台の撮像手段(カメラ)の画像からN視点の画
像(M<N)を生成することにより、観察者が視点をス
ムーズに移動できる画像処理方法および装置を提供する
ことを目的とする。
The present invention has been made in view of the above problems, and an observer can smoothly see the viewpoint by generating images of N viewpoints (M <N) from images of M image pickup means (cameras). It is an object of the present invention to provide an image processing method and apparatus that can be moved to another location.

【0005】[0005]

【課題を解決するための手段】本発明の画像処理方法
は、複数の視点から撮影した画像を入力する画像入力工
程と、これらの入力した画像間の対応点を検出する対応
点検出工程と、入力した画像および検出した対応点を用
いて補間を行うことにより、入力画像の視点とは異なっ
た視点からの画像を生成する画像補間工程とを有するこ
とを特徴とする。
An image processing method according to the present invention comprises an image inputting step of inputting images photographed from a plurality of viewpoints, and a corresponding point detecting step of detecting corresponding points between the input images. An image interpolation step of generating an image from a viewpoint different from the viewpoint of the input image by performing interpolation using the input image and the detected corresponding points.

【0006】画像入力工程は、複数台のカメラからの画
像を入力するものや、画像データベースからの画像を入
力するものである。
The image input process is a process of inputting images from a plurality of cameras and a process of inputting images from an image database.

【0007】入力した画像間の対応点はエピポーラプレ
ーン上で検出することができ、対応点の検出は、エピポ
ーラプレーン上での直線検出におきかえることができ
る。
Corresponding points between the input images can be detected on the epipolar plane, and detection of the corresponding points can be replaced with straight line detection on the epipolar plane.

【0008】画像の補間は、入力した画像の各エピポー
ラプレーン毎に行うことが好ましい。
Image interpolation is preferably performed for each epipolar plane of the input image.

【0009】本発明の画像処理装置は、複数の視点から
撮影した画像を入力する画像入力手段と、これらの入力
した画像間の対応点を検出する対応点検出手段と、入力
した画像および検出した対応点を用いて補間を行うこと
により、入力画像の視点とは異なった視点からの画像を
生成する画像補間手段とを備えたことを特徴とする。
The image processing apparatus of the present invention includes image input means for inputting images photographed from a plurality of viewpoints, corresponding point detecting means for detecting corresponding points between these input images, the input image and detected images. Image interpolation means is provided for generating an image from a viewpoint different from the viewpoint of the input image by performing interpolation using the corresponding points.

【0010】画像入力手段は、複数台のカメラからの画
像が入力可能であるものや、画像データベースからの画
像が入力可能であるものとすることができる。
The image input means can be one that can input images from a plurality of cameras or one that can input images from an image database.

【0011】入力した画像間の対応点はエピポーラプレ
ーン上での直線検出により求めることができる。
Corresponding points between the input images can be obtained by detecting a straight line on the epipolar plane.

【0012】画像の補間は、入力した画像の各エピポー
ラプレーン毎に行うことが好ましい。
The image interpolation is preferably performed for each epipolar plane of the input image.

【0013】[0013]

【作用】本発明は、上記構成により、複数の視点から得
られた画像を補間処理し、入力画像とは異なった視点か
ら見た場合に得られる画像を生成するものである。
According to the present invention, with the above construction, an image obtained from a plurality of viewpoints is interpolated, and an image obtained when viewed from a viewpoint different from the input image is generated.

【0014】[0014]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0015】[第1実施例]図1は本発明の第1実施例
のブロック図である。
[First Embodiment] FIG. 1 is a block diagram of a first embodiment of the present invention.

【0016】図1において、1および2は画像を入力す
る画像入力部、3は入力された画像を補正する画像補正
部、4は補正された2枚の画像から補間処理により1お
よび2とは別の視点からの画像を生成する画像補間処理
部、5は画像入力部1,2より入力された画像と画像補
間処理部4で生成された画像を表示する画像表示部であ
る。画像入力部1および2はSVカメラやTVカメラ等
の画像入力機器により構成される。画像入力部1および
2によって入力された画像は、画像補正部3に入力され
る。ここでレンズの色収差や歪、光軸のずれ、カメラの
姿勢・位置等の幾何学的な補正処理およびCCDセンサ
の感度むら等の補正処理が行われる。この処理は、あら
かじめキャリブレーションしてその補正用データをRO
MやRAMの中に記録しておけば、テーブル参照の形で
高速に補正処理が行える。また、この補正用データを画
像入力前に毎回求めればより正確な補正が可能となる。
画像補正部3により幾何学的補正および感度むら補正等
の補正処理が行われた画像は、画像補間処理部4に入力
され、ここで入力された2枚の画像とは異なった視点か
ら得られる画像が補間処理により生成される。この処理
については後で詳述する。画像補間処理部4より出力さ
れた画像は画像表示部5に入力される。ここでは入力さ
れた画像の内の適当な2枚をステレオペアとして扱い、
この2枚の画像を交互に高速に切り替えながら表示す
る。この場合、観察者はこれと同期するシャッターメガ
ネ等を用いて観察することにより立体像を見ることがで
きる。画像表示部5において、交互に高速に切り替える
ときに交互に異なった偏光をかける場合は、左目と右目
に表示時の偏光と対応した偏光メガネをかけることによ
り立体像を観察できる。
In FIG. 1, 1 and 2 are an image input unit for inputting an image, 3 is an image correction unit for correcting the input image, and 4 is 1 and 2 by interpolation processing from two corrected images. An image interpolation processing unit 5 that generates an image from another viewpoint is an image display unit that displays the image input from the image input units 1 and 2 and the image generated by the image interpolation processing unit 4. The image input units 1 and 2 are configured by image input devices such as SV cameras and TV cameras. The images input by the image input units 1 and 2 are input to the image correction unit 3. Here, geometric correction processing such as chromatic aberration and distortion of the lens, deviation of the optical axis, camera attitude and position, and correction processing such as uneven sensitivity of the CCD sensor are performed. In this process, calibration is performed in advance and the correction data is RO
If it is recorded in M or RAM, correction processing can be performed at high speed in the form of table reference. Further, if this correction data is obtained each time before image input, more accurate correction becomes possible.
The image that has undergone correction processing such as geometric correction and sensitivity unevenness correction by the image correction unit 3 is input to the image interpolation processing unit 4 and is obtained from a different viewpoint from the two images input here. The image is generated by the interpolation process. This processing will be described later in detail. The image output from the image interpolation processing unit 4 is input to the image display unit 5. Here, treat two of the input images as a stereo pair,
The two images are displayed while alternately switching at high speed. In this case, the observer can see a stereoscopic image by observing using shutter glasses or the like synchronized with this. In the image display unit 5, when different polarized lights are alternately applied when switching at high speed alternately, a stereoscopic image can be observed by wearing polarizing glasses corresponding to the polarized light at the time of display to the left eye and the right eye.

【0017】図2は画像補間処理部4のブロック図であ
る。
FIG. 2 is a block diagram of the image interpolation processing section 4.

【0018】図2において、11および12は画像補正
処理部3で補正処理された入力画像を格納するフレーム
メモリ、13はフレームメモリ11および12に記憶さ
れている画像から動きベクトルを検出する動きベクトル
検出部、14は動きベクトル検出部13の結果を用いて
補間画像を求める補間画像推定部、15は推定された補
間画像を記憶しておくフレームメモリである。まず、画
像補正処理部3において補正処理を施された入力画像
は、フレームメモリ11および12に記憶される。次に
動きベクトル検出部13においてフレームメモリ11お
よび12に記憶された画像から、動きベクトルの検出
(対応点検出)を行う。この処理の流れを図3のフロー
チャートに従って説明する。
In FIG. 2, 11 and 12 are frame memories for storing the input images corrected by the image correction processing unit 3, and 13 is a motion vector for detecting a motion vector from the images stored in the frame memories 11 and 12. A detection unit, 14 is an interpolation image estimation unit that obtains an interpolation image using the result of the motion vector detection unit 13, and 15 is a frame memory that stores the estimated interpolation image. First, the input image corrected by the image correction processing unit 3 is stored in the frame memories 11 and 12. Next, the motion vector detection unit 13 detects a motion vector (corresponding point detection) from the images stored in the frame memories 11 and 12. The flow of this processing will be described with reference to the flowchart of FIG.

【0019】まず初期設定として、ステップS1でx=
1,y=1,Nx=x方向の画像サイズ、Ny=y方向
の画像サイズをセットする。次にステップS2において
フレームメモリ11から注目画素(x,y)を中心とし
た5×3画素のブロックの画像データを読み込み、しき
い値THの計算をし、各変数EE=TH,k=0,m=
0をセットする。この(x,y)を中心とした5×3画
素ブロックの画像データをAx,yと表す。ここでフレ
ームメモリ11および12に記憶されている画像は、図
4に示すように画像入力部から物体を見た場合の右側の
画像入力部を1、左側の画像入力部を2とし、画像入力
部1からの画像データが補正処理されてフレームメモリ
11に記憶され、画像入力部2からの画像データが補正
処理されてフレームメモリ12に記憶されているとす
る。フレームメモリ11に記憶されている画像を画像
A、フレームメモリ12に記憶されている画像を画像B
とする(図5参照)。図5は入力画像中の注目画素とブ
ロックの関係を説明するための図である。しきい値TH
は、100×ブロック中の総画素数で計算する。ただ
し、画像の端の方で5×3画素のブロックが確保できな
い場合については次のように処理する。例えば、画像A
の(1,1)画素を注目画素とした場合、(1,1)画
素を中心に5×3画素のブロックは確保できないので
(1,1),(2,1),(3,1),(2,1),
(2,2),(2,3)の6画素をブロックとして上記
の処理を行う。この場合、TH=600となる。また、
画像Aの(2,1)画素を注目画素とした場合、(1,
1),(2,1),(3,1),(2,1),(2,
2),(2,3),(3,1),(3,2),(3,
3)の9画素をブロックとして上記の処理を行う。この
場合はTH=900である。対応点探索のためのブロッ
クを5×3画素としたとき例外処理が発生する個所は、
x=1,2,Nx−1,Nxおよびy=1,Nyであ
る。この部分に関しては、上記の例にならって処理を行
えばよい。本実施例ではしきい値THの値を上記のよう
に100×ブロック中の総画素数としているが、これに
限るわけではなく他の適当な値でもよい。
First, as an initial setting, x =
1, y = 1, Nx = the image size in the x direction and Ny = the image size in the y direction are set. Next, in step S2, image data of a block of 5 × 3 pixels centering on the pixel of interest (x, y) is read from the frame memory 11, the threshold value TH is calculated, and each variable EE = TH, k = 0. , M =
Set to 0. Image data of a 5 × 3 pixel block centered on this (x, y) is represented as Ax, y. As for the images stored in the frame memories 11 and 12, the image input unit on the right side when the object is viewed from the image input unit is 1 and the image input unit on the left side is 2 as shown in FIG. It is assumed that the image data from the unit 1 is corrected and stored in the frame memory 11, and the image data from the image input unit 2 is corrected and stored in the frame memory 12. The image stored in the frame memory 11 is the image A, and the image stored in the frame memory 12 is the image B.
(See FIG. 5). FIG. 5 is a diagram for explaining the relationship between the pixel of interest and the block in the input image. Threshold TH
Is calculated by 100 × the total number of pixels in the block. However, when a block of 5 × 3 pixels cannot be secured near the edge of the image, the following processing is performed. For example, image A
When the (1,1) pixel of is a target pixel, a block of 5 × 3 pixels centering on the (1,1) pixel cannot be secured, so (1,1), (2,1), (3,1) , (2,1),
The above processing is performed with 6 pixels of (2, 2) and (2, 3) as blocks. In this case, TH = 600. Also,
If the (2,1) pixel of the image A is the target pixel, (1,
1), (2,1), (3,1), (2,1), (2
2), (2,3), (3,1), (3,2), (3
The above processing is performed with 9 pixels of 3) as a block. In this case, TH = 900. The point where exception processing occurs when the block for corresponding point search is 5 × 3 pixels is
x = 1, 2, Nx-1, Nx and y = 1, Ny. This part may be processed according to the above example. In the present embodiment, the value of the threshold value TH is 100 × the total number of pixels in the block as described above, but the value is not limited to this and may be another appropriate value.

【0020】次にステップS3において画像Bの(x+
k,y)画素を中心とした5×3画素のブロックを読み
だし、これをBx+k,yとして以下の計算を行う(ス
テップS4)。EkはAx,yとBx+k,yの誤差と
定義する。
Next, in step S3, (x +
A block of 5 × 3 pixels centered on (k, y) pixels is read out, and the following calculation is performed with this as Bx + k, y (step S4). Ek is defined as the error between Ax, y and Bx + k, y.

【0021】[0021]

【数1】 ただし、Ax,y(i,j)およびBx+k(i,j)
はそれぞれAx,yおよびBx+k,y中の画素位置が
(i,j)で表される画素の値を示し、kは0以上N以
下の整数で、このNはカメラの間隔とカメラと物体の距
離によって決まる値である。例えばカメラの間隔を固定
した場合、カメラと物体の距離を短くするとNは大きな
値になり、逆に長くすると小さな値となる。ここではN
=20となるようにカメラ間隔と物体とカメラの距離を
調整した、すなわち、カメラからある距離以上離れた物
体しか撮影しないとして説明を行う。
[Equation 1] However, Ax, y (i, j) and Bx + k (i, j)
Indicates the value of the pixel whose pixel position in Ax, y and Bx + k, y is represented by (i, j), k is an integer from 0 to N inclusive, where N is the distance between the camera and the camera and the object. It is a value determined by the distance. For example, when the distance between the cameras is fixed, N has a large value when the distance between the camera and the object is short, and conversely, has a small value when the distance is long. N here
The description will be made assuming that the camera interval and the distance between the object and the camera are adjusted so that = 20, that is, only the object that is away from the camera by a certain distance or more is imaged.

【0022】ステップS5において、変数Ekと変数E
Eを比較し、Ekの方が小さければステップS6へ進
み、そうでなければステップS7へ進む。ステップS6
ではEE=Ekおよびm=kをセットする。ステップ7
では、探索範囲k=0〜20まで全て済んだかあるいは
画像の右端まで探索が行われたかが判定され、まだ行わ
れていなければ、ステップS8においてkの値を“1”
増やしてステップS3に戻る。もし行われていれば、ス
テップS9に移り、EEの値がTHと一致するかどうか
を判定する。EE=THならば画像Aの(x,y)に対
応する点は画像B上に存在しないと判断する。またEE
=Ekならば画像Aの(x,y)に対応する点は画像B
の(x+k,y)であると判断する。ただし、複数個の
Ekが該当する場合はkの値の一番若いものを採用す
る。EEの値がTHと一致するならばステップS10に
進み、mの値を周囲の画素のmから推定する。この推定
方法に関しては、例えば周囲の画素のmの平均値をとる
あるいは最も多く発生しているmの値をとるといった方
法がある。一致しなければステップS11に移り、不図
示のワークメモリ上にx,y,mの値を記憶する。そし
てステップS12に移りx方向の最終画素まで処理が済
んだかどうかが判定され、まだならば、ステップS13
においてxの値が“1”増やされて、ステップS2に戻
る。x方向の最終画素まで処理が済んだならばステップ
S14に進み、y方向の最終ラインまで処理が済んだか
どうかが判定される。まだ済んでいなければステップS
15においてyの値を“1”増やし、xの値を“1”に
セットして、ステップS2に戻る。y方向の最終ライン
まで処理が済んだならば対応点探索の処理を終える。た
だし、画像Aの右端19画素に関しては、画像Bの探索
範囲(kがとり得る値の範囲)が20画素とれないの
で、この場合はとれる範囲で処理を行う。もし、探索可
能範囲内で対応点が検出できない場合は、周囲の対応点
(動きベクトル)の平均値(ただし、x軸方向の平均値
のみを使用する)をもって、この点の対応点とするかあ
るいは周囲で最も多く発生している値(上記のm)をも
って対応点とする。
In step S5, variables Ek and E
E is compared, and if Ek is smaller, the process proceeds to step S6, and if not, the process proceeds to step S7. Step S6
Now set EE = Ek and m = k. Step 7
Then, it is determined whether the search range k = 0 to 20 has been completed or the search has been performed up to the right edge of the image. If not, the value of k is set to "1" in step S8.
Increase and return to step S3. If so, the process proceeds to step S9, and it is determined whether the value of EE matches TH. If EE = TH, it is determined that the point corresponding to (x, y) of image A does not exist on image B. EE again
= Ek, the point corresponding to (x, y) of image A is image B
It is determined to be (x + k, y). However, when a plurality of Ek's are applicable, the youngest one of the values of k is adopted. If the value of EE matches TH, the process proceeds to step S10, and the value of m is estimated from m of surrounding pixels. Regarding this estimation method, for example, there is a method of taking the average value of m of surrounding pixels or taking the value of m that occurs most frequently. If they do not match, the process proceeds to step S11 to store the values of x, y and m in a work memory (not shown). Then, the process proceeds to step S12, where it is determined whether or not the processing has been completed up to the final pixel in the x direction. If not, step S13
At x, the value of x is increased by "1" and the process returns to step S2. If the processing is completed up to the final pixel in the x direction, the process proceeds to step S14, and it is determined whether the processing is completed up to the final line in the y direction. Step S if not done yet
At 15, the value of y is increased by "1", the value of x is set at "1", and the process returns to step S2. When the processing is completed up to the final line in the y direction, the corresponding point search processing ends. However, with respect to the rightmost 19 pixels of the image A, the search range of the image B (the range of values that can be taken by k) cannot be 20 pixels. Therefore, in this case, the processing is performed within the range. If the corresponding point cannot be detected within the searchable range, the average value of the surrounding corresponding points (motion vector) (however, only the average value in the x-axis direction is used) is set as the corresponding point of this point. Alternatively, the value (m above) most frequently occurring in the surroundings is set as the corresponding point.

【0023】補間画像推定部14では、動きベクトル検
出部13の結果に従って任意の視点から見た画像を内挿
する。このときの方法について説明する。図6〜図9は
補間画像推定部14の動作を説明するための図である。
図6は、画像入力部1および2から得られた補正済の画
像(説明を簡単にするために画像中の白地の輝度値は2
55、斜線部の輝度値を100とする)を表している。
この画像に対し、動きベクトル検出を行った結果を表1
に示す。
The interpolated image estimation unit 14 interpolates an image viewed from an arbitrary viewpoint according to the result of the motion vector detection unit 13. The method at this time will be described. 6 to 9 are diagrams for explaining the operation of the interpolation image estimation unit 14.
FIG. 6 shows a corrected image obtained from the image input units 1 and 2 (the brightness value of the white background in the image is 2 for the sake of simplicity).
55, and the luminance value of the shaded area is 100).
Table 1 shows the result of motion vector detection performed on this image.
Shown in.

【0024】[0024]

【表1】 ここでは説明を簡単にするために、動きベクトル検出部
13で記述した5×3画素ブロックを3×1画素ブロッ
クに変更して説明を進める。表1に示されていない画素
については動きがないということを示している。まずテ
ーブル(表1)中の画像Aのエリアをサーチし、動きの
ない点を抽出し、フレームメモリ15にコピーする。そ
の様子を図7に示す。
[Table 1] Here, in order to simplify the description, the 5 × 3 pixel block described in the motion vector detection unit 13 will be changed to a 3 × 1 pixel block, and the description will proceed. Pixels not shown in Table 1 have no motion. First, the area of the image A in the table (Table 1) is searched to extract a point having no motion and copied to the frame memory 15. This is shown in FIG.

【0025】図7中の網のかかった部分が動きのない点
として抽出された点である。網のかかった部分の輝度値
は画像A中の同一座標の点の輝度値と同じである。次に
テーブル(表1)中に記録された点に関して補間を行
う。ここでは、画像Aと画像Bの視線間を3等分したと
きの2つの視点から見た画像を補間する。すなわち、こ
れを図示すれば図8のようになる。図8中のA1および
B1はそれぞれ画像A,Bを撮影したカメラの位置(光
軸)を表し、H1とH2はそれぞれ補間画像を仮想的に
撮影すると考えたときの仮想カメラの位置(光軸)を表
している。H1の位置から見た画像を補間する場合は、
画像Aの点をaとしてそれに対応する画像Bの点をbと
する。点aと点bを1:2に内分する点をcとし、点c
の輝度値は点aの輝度値と同じにする。ここでは点cの
輝度値を点aの輝度値と同じにしたが、点aと点bの輝
度値が異なる場合は、内分の比率に従ってcの輝度値を
決定してもよい。例えば、c’=(R1・b’+R2・
a’)/(R1+R2)とする。ただし、a’,b’,
c’はそれぞれa,b,cの輝度値を示し、また、R
1,R2は点aと点bをR1:R2に内分したときの比
率を示す。
The shaded portion in FIG. 7 is the point extracted as a stationary point. The luminance value of the shaded portion is the same as the luminance value of the point at the same coordinate in the image A. Next, interpolation is performed on the points recorded in the table (Table 1). Here, the images viewed from two viewpoints when the line of sight between the image A and the image B is divided into three equal parts are interpolated. That is, FIG. 8 shows this. A1 and B1 in FIG. 8 represent the positions (optical axis) of the cameras that photographed images A and B, respectively, and H1 and H2 represent the positions (optical axis) of the virtual cameras when it is assumed that the interpolated images are virtually photographed, respectively. ) Is represented. When interpolating the image seen from the position of H1,
The point of the image A is a and the corresponding point of the image B is b. The point that internally divides point a and point b in 1: 2 is c, and point c
The luminance value of is the same as the luminance value of the point a. Here, the luminance value of the point c is set to be the same as the luminance value of the point a, but when the luminance values of the points a and b are different, the luminance value of c may be determined according to the ratio of the internal division. For example, c ′ = (R1 · b ′ + R2 ·
a ') / (R1 + R2). However, a ', b',
c'represents the brightness values of a, b and c, respectively, and R
1, R2 indicates the ratio when point a and point b are internally divided into R1: R2.

【0026】この操作をテーブル(表1)の全ての点に
関して行う。この処理を行い、フレームメモリ15に記
億する。この様子を図9に示す。図9中の網のかかった
部分である画像51は動きのない点の集合であり、第1
の斜線部分である画像52(輝度値100)と第2の斜
線部分である画像53(輝度値255)は内分により求
まった点の集合である。次に図9の白地の部分の補間を
行う。白地の部分は物体が動いて背景が露出した部分で
ある。したがって図6中の画像Aおよび画像Bの点の
内、白地の点と同一座標の点を調べ、動きのないほうの
点を補間した点として採用し、フレームメモリ15に記
憶する。例えば、図9の白地の点(2,3),(2,
4)と同一の座標を持つ点で、動きのないのは画像B中
の点(2,3),(2,4)であるから、それぞれこの
点の輝度値を補間画像の点(2,3),(2,4)の輝
度値とする。また、補間画像の点(7,3),(7,
4),(8,3),(8,4)と同一の座標を持つ動き
のない点は画像A中の(7,3),(7,4),(8,
3),(8,4)であるから、補間画像の点(7,
3),(7,4),(8,3),(8,4)の輝度値は
それぞれ画像A中の点(7,3),(7,4),(8,
3),(8,4)の輝度値とする。上記の処理により仮
想的に図8のH1から見たときの補間画像を得ることが
できる。H2から見た補間画像も同様な処理により得る
ことができる。
This operation is performed for all points in the table (Table 1). This process is performed and the data is stored in the frame memory 15. This state is shown in FIG. An image 51, which is a shaded portion in FIG. 9, is a set of points that do not move.
The image 52 (luminance value 100), which is the shaded area, and the image 53 (luminance value 255), which is the second shaded area, are a set of points obtained by internal division. Next, the white background portion of FIG. 9 is interpolated. The white part is the part where the object is moved and the background is exposed. Therefore, of the points of the image A and the image B in FIG. 6, the point having the same coordinates as the point on the white background is examined, and the point having no motion is adopted as the interpolated point and stored in the frame memory 15. For example, the points (2, 3), (2, 3) on the white background in FIG.
Since points having the same coordinates as 4) and having no motion are points (2, 3) and (2, 4) in the image B, the brightness values of these points are respectively set to the points (2, 3) of the interpolated image. The luminance values of 3) and (2, 4) are used. In addition, points (7,3), (7,
4), (8, 3), and (8, 4) having the same coordinates as the non-moving points are (7, 3), (7, 4), (8,
3) and (8, 4), the point (7,
The luminance values of 3), (7,4), (8,3), and (8,4) are points (7,3), (7,4), and (8,4) in image A, respectively.
3) and luminance values of (8, 4). By the above processing, an interpolated image as viewed from H1 of FIG. 8 can be virtually obtained. The interpolation image viewed from H2 can also be obtained by similar processing.

【0027】表示時は、画像入力部1,2から得られた
画像と補間により求まった画像の適当な組み合わせによ
り、複数の視点から見た立体像を表示することができ
る。
At the time of display, a stereoscopic image viewed from a plurality of viewpoints can be displayed by an appropriate combination of the images obtained from the image input units 1 and 2 and the image obtained by interpolation.

【0028】以上の構成で処理を行うことにより、少な
い画像入力機器を用いた場合でもより多くの画像入力機
器を用いたときと同等の画像を得ることができるので、
例えば2台のカメラからの画像に対しても視点を変えて
立体像を観察することができるようになる。また、画像
入力部をコンパクトに構成することができるのでその分
全体構成を小さくできる。
By performing the processing with the above configuration, even when using a small number of image input devices, it is possible to obtain the same image as when using a larger number of image input devices.
For example, it becomes possible to observe a stereoscopic image by changing the viewpoint even for images from two cameras. Further, since the image input unit can be made compact, the entire structure can be made smaller accordingly.

【0029】[第2実施例]第1実施例中の動きベクト
ル検出部13において、使用するマスク(5×3画素ブ
ロック)に重み付けを行うことで局所的に変化する部分
の対応点探索にも対応できるようになる。重みの付け方
としては、注目する画素の存在するラインとその他のラ
インで重みを変えるという方法や注目画素から離れるに
従って重みを小さくするという方法が考えられる。ま
た、使用するマスクのサイズも画像の種類に応じて複雑
な画像では小さく、単純な画像では大きくすることによ
り、対応点探索の精度を向上させることができる。
[Second Embodiment] In the motion vector detection unit 13 of the first embodiment, by weighting the mask (5 × 3 pixel block) to be used, it is possible to search for corresponding points of locally changing portions. You will be able to respond. As a method of weighting, a method of changing the weight between the line in which the pixel of interest exists and another line, and a method of decreasing the weight as the pixel is away from the pixel of interest can be considered. In addition, the size of the mask to be used is small in a complicated image and large in a simple image according to the type of image, so that the accuracy of the corresponding point search can be improved.

【0030】さらに画像補間処理部14では、フレーム
メモリを仮定した処理方法を説明したが、この処理は画
素単位に逐次行えることは明らかである。また、動きベ
クトル探索(対応点探索)および補間処理は並列処理が
可能であり、複数のラインを同時に処理するハードウエ
ア構成にすれば処理速度の向上を図ることができる。
Further, although the image interpolation processing section 14 has explained the processing method on the assumption of the frame memory, it is obvious that this processing can be successively performed pixel by pixel. Further, the motion vector search (corresponding point search) and the interpolation process can be performed in parallel, and the processing speed can be improved by adopting a hardware configuration that simultaneously processes a plurality of lines.

【0031】[第3実施例]画像入力手段として3台以
上のカメラがあるときは、対応点探索(動きベクトル検
出)の精度を向上させることができる。図10は画像入
力部にカメラを4台用いた場合の例である本発明の第3
実施例のブロック図である。図10において、20〜2
3は画像入力部であるカメラ、24は入力ポート、25
はCPU、26はRAM、27はROM、28はディス
クI/0ポート、29はハードディスク、30はVRA
M、31はビデオ信号出力用I/F、32はレンチキュ
ラディスプレイである。カメラ20〜23は図1中の画
像入力部1,2と同じものである。ここでは4台のカメ
ラ20〜23を用いて説明しているが、カメラの台数は
これに限らず、何台でもよい。
[Third Embodiment] When there are three or more cameras as the image input means, the accuracy of the corresponding point search (motion vector detection) can be improved. FIG. 10 shows an example of the case where four cameras are used for the image input unit according to the third embodiment of the present invention.
It is a block diagram of an Example. In FIG. 10, 20-2
3 is a camera as an image input unit, 24 is an input port, 25
Is a CPU, 26 is a RAM, 27 is a ROM, 28 is a disk I / O port, 29 is a hard disk, and 30 is a VRA.
M and 31 are video signal output I / Fs, and 32 is a lenticular display. The cameras 20 to 23 are the same as the image input units 1 and 2 in FIG. Although the four cameras 20 to 23 are used for description here, the number of cameras is not limited to this, and any number of cameras may be used.

【0032】図11は第3実施例の処理の流れを示すフ
ローチャートである。カメラ等の画像入力機器から入力
された原画像は、まずステップS16において、第1実
施例で示した画像補正処理部2と同様の処理、すなわ
ち、レンズの色収差や歪、光軸のずれ、カメラの姿勢・
位置等の幾何学的な補正処理およびCCDセンサの感度
むら等の補正処理が行われる。この処理は、あらかじめ
キャリブレーションしてその補正用データをROMやR
AMの中に記録しておけば、テーブル参照の形で高速に
補正処理が行える。また、この補正用データを画像入力
前に毎回求めればより正確な補正が可能となる。これら
の補正処理が済むとステップS17に移り、各画像間の
対応点探索(動きベクトル検出)を行う。対応点探索が
終了すると次にステップS18に移り、画像の補間処理
を行ったのち、ステップS19でレンチキュラディスプ
レイに補正済の入力画像と補間された画像を表示する。
図12はステップS17の対応点探索処理のフローチャ
ートである。
FIG. 11 is a flow chart showing the flow of processing of the third embodiment. The original image input from an image input device such as a camera is first processed in step S16 in the same manner as the image correction processing unit 2 shown in the first embodiment, that is, the chromatic aberration and distortion of the lens, the shift of the optical axis, the camera Posture
Geometrical correction processing such as position and correction processing such as sensitivity unevenness of the CCD sensor are performed. In this process, calibration is performed in advance and the correction data is stored in the ROM or R
If it is recorded in the AM, the correction process can be performed at high speed in the form of table reference. Further, if this correction data is obtained each time before image input, more accurate correction becomes possible. When these correction processes are completed, the process proceeds to step S17, and a corresponding point search (motion vector detection) between each image is performed. When the corresponding point search is completed, the process proceeds to step S18 to perform image interpolation processing, and then, in step S19, the corrected input image and the interpolated image are displayed on the lenticular display.
FIG. 12 is a flowchart of the corresponding point search process in step S17.

【0033】ステップS21において初期設定として注
目ラスタを各画像の第1ラスタにセットする。次にステ
ップS22において各画像の注目ラスタをワークメモリ
に読み込み、仮想的に1番目のエピポーラプレーンを構
成する。ここでいうj番目のエピポーラプレーンとは、
図13に示すように画像平面上の各点EPj (x,i)
が、 EPj (x,i)=Ni(x,j) を満たすような点EPj (x,i)の集合のことであ
る。ただし、Ni(x,j)はi番目の画像(ここで
は、i=1〜4)のjライン目におけるx番目の画素
値、すなわちi番目の画像において座標が(x,j)で
表される画素の値を表している。入力機器(カメラ)が
等間隔で並行に設置されている場合、このエピポーラプ
レーン上では、対応する点は全て直線上に並んで存在す
る。したがって、画像の補間はこの直線上で行えばよい
ことになる。そこでステップS23において対応点が存
在する直線を抽出し、ステップS24において、得られ
た直線から対応点を計算し、記憶する。具体的なアルゴ
リズムを次に示す。
In step S21, the raster of interest is set as the first raster of each image as an initial setting. Next, in step S22, the raster of interest of each image is read into the work memory to virtually form the first epipolar plane. The j-th epipolar plane here is
As shown in FIG. 13, each point EP j (x, i) on the image plane
Is a set of points EP j (x, i) satisfying EP j (x, i) = Ni (x, j). However, Ni (x, j) is represented by the x-th pixel value in the j-th line of the i-th image (here, i = 1 to 4), that is, the coordinates in the i-th image are represented by (x, j). Represents the value of the pixel. When the input devices (cameras) are installed in parallel at equal intervals, all the corresponding points are lined up on the epipolar plane. Therefore, the image interpolation should be performed on this straight line. Therefore, in step S23, a straight line having a corresponding point is extracted, and in step S24, the corresponding point is calculated from the obtained straight line and stored. The specific algorithm is shown below.

【0034】処理A1.EPj (x,1)を注目画素と
し、m=0〜k1の範囲内で、
Process A1. With EP j (x, 1) as the pixel of interest, within the range of m = 0 to k1,

【0035】[0035]

【数2】 を満足するmを全て求める。ただしTH2は対応点を見
つけるためのしきい値であり、ここでは1600(=4
×202 )に設定している。また、k1はカメラ間隔と
物体までの距離により決定される値で、ここでは20に
設定(すなわち、20画素以上は移動しないと仮定)し
ている。
[Equation 2] Find all m that satisfy However, TH2 is a threshold value for finding a corresponding point, and here, 1600 (= 4
It is set to × 20 2 ). Further, k1 is a value determined by the camera interval and the distance to the object, and is set to 20 here (that is, it is assumed that 20 pixels or more do not move).

【0036】処理A2.x=1〜nxの全てのxについ
て、上記処理A1を繰り返し、xの値と対応するmの値
を全て保持する。ただし、nxは画像の主走査方向の画
素数を表す。また、EPj ((x+m×−1),i)が
存在しない場合は、このmにおける対応点は存在しない
として処理を続ける。
Process A2. The above processing A1 is repeated for all x of x = 1 to nx, and all the values of m corresponding to the values of x are held. However, nx represents the number of pixels in the main scanning direction of the image. If EP j ((x + m × −1), i) does not exist, it is determined that the corresponding point in m does not exist and the process is continued.

【0037】処理A3.上記処理A1およびA2により
求まった傾きmの直線から優先順位1の対応点を求め、
メモリに記憶する。複数の対応点が求まる場合は、便宜
上全てを優先順位1の対応点として記憶する。対応点と
して求まった画素は処理済の画素とする。
Process A3. The corresponding point of priority 1 is obtained from the straight line of the slope m obtained by the above processes A1 and A2,
Store in memory. When a plurality of corresponding points are obtained, all of them are stored as corresponding points of priority 1 for convenience. Pixels found as corresponding points are processed pixels.

【0038】処理A4.上記処理A1,A2,A3を1
サイクルとして、処理済でない画素に対して上記のサイ
クルを繰り返す。処理A1においてEPj (x+m×
(i−1),i)が処理済の場合は、EPj (x+m×
(i−1),i)−EPj (x,1)=0として処理を
続ける。処理A3において傾きmの直線より求まった対
応点が既に処理済の場合は、この点を対応点から除外す
る。第nサイクル目で求まった対応点は優先順位nの対
応点として記憶する。
Process A4. The above processing A1, A2, A3 is 1
As a cycle, the above cycle is repeated for pixels that have not been processed. In process A1, EP j (x + m ×
If (i-1), i) have been processed, EP j (x + mx)
(I-1), i) -EP j (x, 1) = 0 and the processing is continued. If the corresponding point obtained from the straight line of the slope m in the process A3 has already been processed, this point is excluded from the corresponding points. The corresponding points obtained in the nth cycle are stored as the corresponding points of the priority order n.

【0039】処理A5.上記処理A4を行っても未処理
の画素が減らなくなったならば、EPj (x,2)を注
目画素として処理A1〜A4と同様の処理を行う。ただ
し、x=1〜nXとする。
Process A5. If the number of unprocessed pixels does not decrease even after performing the process A4, the same process as the processes A1 to A4 is performed with EP j (x, 2) as the target pixel. However, x = 1 to nX.

【0040】処理A6.上記処理A5を行っても未処理
の画素が減らなくなったならば、EPj (x,3)を注
目画素として処理A1〜A4と同様の処理を行う。ただ
し、x=1〜nXとする。
Process A6. If the number of unprocessed pixels does not decrease even after performing the process A5, the same process as the processes A1 to A4 is performed with EP j (x, 3) as the target pixel. However, x = 1 to nX.

【0041】処理A7.上記jの値を“1”増やして処
理A1に戻る。
Process A7. The value of j is incremented by "1" and the process returns to A1.

【0042】処理A8.最終ラスタまで処理が済んだな
らば、対応点探索処理を終える。
Process A8. When the processing is completed up to the final raster, the corresponding point search processing is ended.

【0043】上記のように処理を行うことにより、2枚
の画像からでは求まらなかった対応点が検出でき、ま
た、オクルージョン等にも対応できるので、対応点探索
の精度が向上する。
By performing the processing as described above, it is possible to detect the corresponding points which cannot be found from the two images, and it is also possible to deal with occlusion and the like, so that the accuracy of the corresponding point search is improved.

【0044】次にステップS18に移り、画像の補間処
理を行う。画像の補間処理は、ステップS17より求ま
った対応点を用いて行う。具体的なアルゴリズムを図1
4、図15を例にして説明する。
Next, in step S18, an image interpolation process is performed. The image interpolation processing is performed using the corresponding points obtained in step S17. Figure 1 shows the concrete algorithm.
4 and FIG. 15 as an example.

【0045】図14はj番目のエピポーラプレーンを表
している。a1,b1は優先順位1の対応点を示し、c
2は優先順位2の対応点を示している。入力画像間に等
間隔にn枚の画像を補間する場合を考える。ここでは説
明を簡単にするため、n=2とする。このことをj番目
のエピポーラプレーンで考えた場合、図15に示すよう
にエピポーラプレーンのライン間に2本ずつラインを内
挿し、原画のエピポーラプレーンの対応点同士を結んだ
直線上にある内挿されたラインの画素値は対応点同士の
平均値に設定すればよい。すなわち、以下の処理B1〜
B5を行う。
FIG. 14 shows the j-th epipolar plane. a1 and b1 indicate corresponding points of priority 1, c
2 indicates the corresponding point of priority 2. Consider a case where n images are interpolated at equal intervals between input images. Here, n = 2 is set to simplify the description. When this is considered for the j-th epipolar plane, two lines are interpolated between the lines of the epipolar plane as shown in FIG. 15, and the interpolation is on the straight line connecting the corresponding points of the epipolar plane of the original image. The pixel value of the selected line may be set to the average value of corresponding points. That is, the following processing B1 to
Perform B5.

【0046】処理B1.優先順位1の対応点を結んだ直
線を考え、この直線上にある内挿ラインの画素値を直線
上にある原画の画素値の平均値にセットする。図15の
対応点a1およびb1を例に取れば、対応点同士を結ん
だ直線上の点aおよびbの画素値は、それぞれa1,b
1で示される画素値の平均値をとる。
Process B1. Consider a straight line connecting corresponding points of priority 1, and set the pixel value of the interpolation line on this straight line to the average value of the pixel values of the original image on the straight line. Taking the corresponding points a1 and b1 in FIG. 15 as an example, the pixel values of points a and b on the straight line connecting the corresponding points are a1 and b, respectively.
The average value of the pixel values shown by 1 is taken.

【0047】処理B2.優先順位1の対応点の処理が終
わったら、次に優先順位2の対応点の処理を行う。この
処理は、基本的には処理B1と同じであるが、処理B1
において既に補間された画素に対しては処理を行わな
い。これを図15を用いて説明する。画素(3,8)と
(2,9)は対応点c2により通常は補間されるが、既
に優先順位1のa1という対応点により補間されている
ため、この画素に対しては何も処理を行わない。したが
って対応点c2により補間される画素は(9,2),
(8,3),(6,5),(5,6)の4画素である。
図15の例では、この部分でオクルージョンが発生して
いるが、このように処理することによりオクルージョン
の問題を解決できる。
Process B2. After the processing of the corresponding points of priority 1 is completed, the processing of the corresponding points of priority 2 is performed next. This process is basically the same as the process B1, but the process B1
In, no processing is performed on the pixels that have already been interpolated. This will be described with reference to FIG. Pixels (3,8) and (2,9) are normally interpolated by the corresponding point c2, but since they are already interpolated by the corresponding point a1 of priority 1, no processing is performed on this pixel. Not performed. Therefore, the pixel interpolated by the corresponding point c2 is (9, 2),
The four pixels are (8, 3), (6, 5), and (5, 6).
In the example of FIG. 15, occlusion occurs in this portion, but the problem of occlusion can be solved by performing the processing in this way.

【0048】処理B3.優先順位2の対応点の処理が終
わったならば、次に優先順位3の対応点の処理に入る。
処理B2と同様に既に補間処理済の画素に対しては、何
も行わない。以下同様にして、最終の優先順位の対応点
まで処理を行う。
Process B3. When the processing of the corresponding points of priority 2 is completed, the processing of the corresponding points of priority 3 is started next.
Similar to the process B2, nothing is performed on the pixels which have already undergone the interpolation process. In the same manner, processing is performed up to the corresponding point of the final priority order.

【0049】処理B4.処理B1〜B3の各処理を終え
ても補間されなかった画素に対しては、周囲の画素から
内挿を行う。このときの方法としては、周囲の画素値の
平均値を用いる方法や最近傍画素の値をそのまま用いる
方法などがある。
Process B4. For pixels that have not been interpolated even after the processes B1 to B3 have been completed, interpolation is performed from surrounding pixels. At this time, there are a method of using an average value of surrounding pixel values, a method of directly using the value of the nearest pixel, and the like.

【0050】処理B5.j=1〜nyについて、処理B
1〜B4の処理を行い、ラインj2,j3,j5,j
6,j8,j9を用いて補間画像を得る。ただし、図1
5に示すように処理B1〜B4により内挿されたライン
をj2,j3,j5,j6,j8,j9と表すことにす
る。例えば補間画像2は、内挿ラインj2(j=1〜n
y)を並べることによって構成できる(図16参照)。
補間画像3,5,6,8,9に関しても同様である。
Process B5. Process B for j = 1 to ny
1 to B4 are processed and lines j2, j3, j5, j
An interpolated image is obtained using 6, j8 and j9. However,
As shown in FIG. 5, the lines interpolated by the processes B1 to B4 are represented as j2, j3, j5, j6, j8, j9. For example, the interpolation image 2 has an interpolation line j2 (j = 1 to n).
It can be configured by arranging y) (see FIG. 16).
The same applies to the interpolated images 3, 5, 6, 8, and 9.

【0051】以上述べた構成および方法を用いて多数枚
の入力画像から補間画像を生成することにより、2枚の
画像からでは求めることができなかった対応点を検出す
ることができるので、補間の精度が向上する。また、多
数の画像から対応点を求めるので前述のようにオクルー
ジョン等の問題も解決できる。
By generating an interpolated image from a large number of input images using the configuration and method described above, it is possible to detect corresponding points that could not be obtained from two images, and Accuracy is improved. Moreover, since corresponding points are obtained from a large number of images, problems such as occlusion can be solved as described above.

【0052】[第4実施例]立体表示する手法として、
ホログラフィがある。これは、対象物の物体光にレーザ
光(参照光)を照射して生成した干渉縞に、再び参照光
を照射することにより立体像を表示する手法である。こ
のとき、レーザ光があてられない、あるいは、対象物が
大きいような場合には、ホログラフィック・ステレオグ
ラムという手法を用いることができる。この手法は、少
しずつ視点を変えて多数の写真を撮影し、それぞれの写
真を透過拡散版などに投影し、その投影面に参照光を照
射して干渉縞を生成し、生成された干渉縞を切り出して
ひとつの干渉縞に合成し、この干渉縞に参照光を照射す
ることにより立体像を得る方式である。詳しくは、辻内
順平編著「ホログラフィック・ディスプレイ」(産業図
書)の191頁〜207頁に掲載されている。
[Fourth Embodiment] As a three-dimensional display method,
There is holography. This is a method of displaying a stereoscopic image by irradiating the interference fringes generated by irradiating the object light of the object with the laser light (reference light) with the reference light again. At this time, if the laser beam cannot be applied or the object is large, a method called holographic stereogram can be used. In this method, a large number of photographs are taken while changing the viewpoint little by little, each photograph is projected on a transmission diffusion plate, etc., the projection surface is irradiated with reference light to generate interference fringes, and the generated interference fringes are generated. This is a method in which a three-dimensional image is obtained by cutting out and combining them into one interference fringe, and irradiating this interference fringe with reference light. For details, refer to pages 191 to 207 of “Holographic Display” (Sangyo Tosho) by Junpei Tsujiuchi.

【0053】このホログラフィック・ステレオグラムと
いう手法では、少しずつ視点を変えて撮影した多数枚の
画像を必要とするため、カメラの台数が多数必要とな
る。静止画像の場合ならば1台のカメラを少しずつ移動
させるという手法が使えるが、動画像の場合は、多数の
カメラを用いざるをえない。本発明の補間画像を用いれ
ば、この問題を解決できる。すなわち、数台〜数十台の
カメラから得られる画像を入力画像として、カメラ間の
視点から得られるであろう画像を本発明の補間により生
成する。この方法を用いれば、カメラの台数が少なくて
よいというメリットがある。ホログラフィック・ステレ
オグラムを用いたテレビを考えた場合、数枚〜数十枚の
画像を伝送し、受信側で補間画像を生成すればデータ圧
縮にもなるというメリットがある。また入力画像を伝送
する際に画像圧縮の手法を用いれば、さらにデータを圧
縮することが可能である。
In the method of holographic stereogram, a large number of cameras are required because a large number of images photographed by changing the viewpoint little by little are required. In the case of a still image, a method of moving one camera little by little can be used, but in the case of a moving image, many cameras have to be used. This problem can be solved by using the interpolation image of the present invention. That is, an image obtained from a viewpoint between the cameras is generated by the interpolation of the present invention using images obtained from several cameras to several tens of cameras as an input image. This method has the advantage that the number of cameras can be small. Considering a television using a holographic stereogram, there is an advantage that data transmission is achieved by transmitting several to several tens of images and generating an interpolated image on the receiving side. If an image compression method is used when transmitting the input image, the data can be further compressed.

【0054】[0054]

【発明の効果】以上説明したように本発明は、複数の視
点から得られた画像を補間処理し、入力画像とは異なっ
た視点から見た場合に得られる画像を生成することによ
って、入力画像よりも多くの視点からの画像が得られる
ので、立体表示した際に視点移動などが滑らかに行え、
視点数が増えることにより立体像のリアリティが向上す
る。また、入力用の撮像手段(カメラ)の台数も少なく
できるので、装置をコンパクトに構成できる。
As described above, according to the present invention, the images obtained from a plurality of viewpoints are interpolated, and an image obtained from a viewpoint different from the input image is generated to obtain the input image. Images from more viewpoints can be obtained, so viewpoints can be moved smoothly when displaying in 3D,
By increasing the number of viewpoints, the reality of the stereoscopic image is improved. Moreover, since the number of image pickup means (cameras) for input can be reduced, the apparatus can be made compact.

【0055】また、本発明を用いてデータベース等に蓄
積された多視点画像(視点を少しずつずらして撮影した
画像)の補間画像を生成することにより、より視点数の
多いレンチキュラディスプレイやホログラフィックディ
スプレイに表示することが可能となるので、よりリアリ
ティのある立体像を得ることが可能であると同時に視点
数が増えるのでスムーズな視点移動が可能となる。
By using the present invention to generate an interpolated image of multi-viewpoint images (images photographed by shifting viewpoints little by little) stored in a database or the like, a lenticular display or a holographic display having a larger number of viewpoints can be obtained. Therefore, it is possible to obtain a more realistic stereoscopic image, and at the same time, the number of viewpoints is increased, so that smooth viewpoint movement is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例のブロック図である。FIG. 1 is a block diagram of a first embodiment of the present invention.

【図2】画像補間処理部4のブロック図である。FIG. 2 is a block diagram of an image interpolation processing unit 4.

【図3】動きベクトル検出部13の動作を示すフローチ
ャートである。
FIG. 3 is a flowchart showing an operation of a motion vector detection unit 13.

【図4】物体とカメラの位置関係を示す図である。FIG. 4 is a diagram showing a positional relationship between an object and a camera.

【図5】入力画像中の注目画素とブロックの関係を説明
するための図である。
FIG. 5 is a diagram for explaining a relationship between a pixel of interest and a block in an input image.

【図6】補間画像推定部14の動作を説明するための図
である。
FIG. 6 is a diagram for explaining the operation of the interpolated image estimation unit 14.

【図7】補間画像推定部14の動作を説明するための図
である。
FIG. 7 is a diagram for explaining the operation of the interpolation image estimation unit 14.

【図8】補間画像推定部14の動作を説明するための図
である。
FIG. 8 is a diagram for explaining the operation of the interpolated image estimation unit 14.

【図9】補間画像推定部14の動作を説明するための図
である。
FIG. 9 is a diagram for explaining the operation of the interpolated image estimation unit 14.

【図10】本発明の第3実施例のブロック図である。FIG. 10 is a block diagram of a third embodiment of the present invention.

【図11】第3実施例の処理の流れを示すフローチャー
トである。
FIG. 11 is a flowchart showing a processing flow of the third embodiment.

【図12】対応点探索処理の流れを示すフローチャート
である。
FIG. 12 is a flowchart showing the flow of corresponding point search processing.

【図13】エピポーラプレーンを説明するための図であ
る。
FIG. 13 is a diagram for explaining an epipolar plane.

【図14】エピポーラプレーン上での補間処理を説明す
るための図である。
FIG. 14 is a diagram for explaining an interpolation process on an epipolar plane.

【図15】エピポーラプレーン上での補間処理を説明す
るための図である。
FIG. 15 is a diagram for explaining an interpolation process on an epipolar plane.

【図16】補間画像の構成を説明するための図である。FIG. 16 is a diagram for explaining the configuration of an interpolated image.

【図17】レンチキュラディスプレイを説明するための
図である。
FIG. 17 is a diagram for explaining a lenticular display.

【符号の説明】[Explanation of symbols]

1,2 画像入力部 3 画像補正処理部 4 画像補間処理部 5 ステレオディスプレイ 11,12,15 フレームメモリ 13 動きベクトル検出部 14 補間画像推定部 1, 2 image input unit 3 image correction processing unit 4 image interpolation processing unit 5 stereo display 11, 12, 15 frame memory 13 motion vector detection unit 14 interpolation image estimation unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 13/04 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Office reference number FI technical display location H04N 13/04

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 複数の視点から撮影した画像を入力する
画像入力工程と、 これらの入力した画像間の対応点を検出する対応点検出
工程と、 入力した画像および検出した対応点を用いて補間を行う
ことにより、入力画像の視点とは異なった視点からの画
像を生成する画像補間工程とを有することを特徴とする
画像処理方法。
1. An image inputting step of inputting images photographed from a plurality of viewpoints, a corresponding point detecting step of detecting corresponding points between these input images, and an interpolation using the input image and the detected corresponding points. And an image interpolation step of generating an image from a viewpoint different from the viewpoint of the input image.
【請求項2】 画像入力工程は、複数台のカメラからの
画像を入力するものであることを特徴とする請求項1記
載の画像処理方法。
2. The image processing method according to claim 1, wherein the image input step inputs images from a plurality of cameras.
【請求項3】 画像入力工程は、画像データベースから
の画像を入力するものであることを特徴とする請求項1
記載の画像処理方法。
3. The image input step is to input an image from an image database.
The described image processing method.
【請求項4】 入力した画像間の対応点をエピポーラプ
レーン上で検出することを特徴とする請求項1記載の画
像処理方法。
4. The image processing method according to claim 1, wherein corresponding points between the input images are detected on the epipolar plane.
【請求項5】 画像の補間は、入力した画像の各エピポ
ーラプレーン毎に行うことを特徴とする請求項1記載の
画像処理方法。
5. The image processing method according to claim 1, wherein the image interpolation is performed for each epipolar plane of the input image.
【請求項6】 複数の視点から撮影した画像を入力する
画像入力手段と、 これらの入力した画像間の対応点を検出する対応点検出
手段と、 入力した画像および検出した対応点を用いて補間を行う
ことにより、入力画像の視点とは異なった視点からの画
像を生成する画像補間手段とを備えたことを特徴とする
画像処理装置。
6. Image input means for inputting images photographed from a plurality of viewpoints, corresponding point detection means for detecting corresponding points between these input images, and interpolation using the input image and the detected corresponding points. And an image interpolating unit for generating an image from a viewpoint different from the viewpoint of the input image.
【請求項7】 画像入力手段は、複数台のカメラからの
画像が入力可能であることを特徴とする請求項6記載の
画像処理装置。
7. The image processing apparatus according to claim 6, wherein the image input means can input images from a plurality of cameras.
【請求項8】 画像入力手段は、画像データベースから
の画像が入力可能であることを特徴とする請求項6記載
の画像処理装置。
8. The image processing apparatus according to claim 6, wherein the image input means can input an image from an image database.
【請求項9】 入力した画像間の対応点をエピポーラプ
レーン上で検出することを特徴とする請求項6記載の画
像処理装置。
9. The image processing apparatus according to claim 6, wherein corresponding points between the input images are detected on the epipolar plane.
【請求項10】 画像の補間は、入力した画像の各エピ
ポーラプレーン毎に行うことを特徴とする請求項6記載
の画像処理装置。
10. The image processing apparatus according to claim 6, wherein the image interpolation is performed for each epipolar plane of the input image.
JP5193737A 1993-08-04 1993-08-04 Method and device for image processing Pending JPH0749944A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP5193737A JPH0749944A (en) 1993-08-04 1993-08-04 Method and device for image processing
DE69434685T DE69434685T2 (en) 1993-08-04 1994-08-02 Image processing method and apparatus
EP94305725A EP0637815B1 (en) 1993-08-04 1994-08-02 Image processing method and image processing apparatus
US08/769,884 US6191808B1 (en) 1993-08-04 1996-12-19 Image processing method with viewpoint compensation and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5193737A JPH0749944A (en) 1993-08-04 1993-08-04 Method and device for image processing

Publications (1)

Publication Number Publication Date
JPH0749944A true JPH0749944A (en) 1995-02-21

Family

ID=16312977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5193737A Pending JPH0749944A (en) 1993-08-04 1993-08-04 Method and device for image processing

Country Status (1)

Country Link
JP (1) JPH0749944A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078613A (en) * 1998-08-31 2000-03-14 Sony Corp Image processing unit and image processing method
JP2005149127A (en) * 2003-11-14 2005-06-09 Sony Corp Imaging display device and method, and image sending and receiving system
JP2005532740A (en) * 2002-07-05 2005-10-27 トムソン ライセンシング High-definition deinterlacing / frame doubling circuit and method thereof
JP2007179236A (en) * 2005-12-27 2007-07-12 Sony Corp Image generation device and method
JP2009522932A (en) * 2006-01-09 2009-06-11 トムソン ライセンシング Method and apparatus for providing a low resolution update mode for multiview video encoding
WO2011083669A1 (en) * 2010-01-06 2011-07-14 コニカミノルタオプト株式会社 Stereo camera device
JP2013077050A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Image generation device, image generation method, and program for the image generation device
KR20140109406A (en) * 2011-12-08 2014-09-15 유니베르시테 피에르 에 마리에 쿠리에 (파리 6) Method of 3d reconstruction of a scene calling upon asynchronous sensors

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000078613A (en) * 1998-08-31 2000-03-14 Sony Corp Image processing unit and image processing method
JP2005532740A (en) * 2002-07-05 2005-10-27 トムソン ライセンシング High-definition deinterlacing / frame doubling circuit and method thereof
JP4595313B2 (en) * 2003-11-14 2010-12-08 ソニー株式会社 Imaging display apparatus and method, and image transmission / reception system
JP2005149127A (en) * 2003-11-14 2005-06-09 Sony Corp Imaging display device and method, and image sending and receiving system
JP2007179236A (en) * 2005-12-27 2007-07-12 Sony Corp Image generation device and method
JP2013085286A (en) * 2006-01-09 2013-05-09 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multi-view video coding
JP2012213175A (en) * 2006-01-09 2012-11-01 Thomson Licensing Method and apparatus for providing low resolution update mode for multi-view video coding
JP2009522932A (en) * 2006-01-09 2009-06-11 トムソン ライセンシング Method and apparatus for providing a low resolution update mode for multiview video encoding
US9237353B2 (en) 2006-01-09 2016-01-12 Thomson Licensing Methods and apparatus for illumination and color compensation for multi-view video coding
JP2013085285A (en) * 2006-01-09 2013-05-09 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multi-view video coding
US9838694B2 (en) 2006-01-09 2017-12-05 Dolby Laboratories Licensing Corporation Methods and apparatus for illumination and color compensation for multi-view video coding
US8902977B2 (en) 2006-01-09 2014-12-02 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multi-view video coding
US9241168B2 (en) 2006-01-09 2016-01-19 Thomson Licensing Methods and apparatus for illumination and color compensation for multi-view video coding
WO2011083669A1 (en) * 2010-01-06 2011-07-14 コニカミノルタオプト株式会社 Stereo camera device
JP5440615B2 (en) * 2010-01-06 2014-03-12 コニカミノルタ株式会社 Stereo camera device
JP2013077050A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Image generation device, image generation method, and program for the image generation device
JP2015508584A (en) * 2011-12-08 2015-03-19 ユニベルシテ ピエール エ マリーキュリー(パリ シズエム) Method for 3D reconstruction of scenes that rely on asynchronous sensors
KR20140109406A (en) * 2011-12-08 2014-09-15 유니베르시테 피에르 에 마리에 쿠리에 (파리 6) Method of 3d reconstruction of a scene calling upon asynchronous sensors

Similar Documents

Publication Publication Date Title
US6191808B1 (en) Image processing method with viewpoint compensation and apparatus therefor
EP0680014B1 (en) Image processing method and apparatus
US6233004B1 (en) Image processing method and apparatus
KR100730406B1 (en) Three-dimensional display apparatus using intermediate elemental images
JP3593466B2 (en) Method and apparatus for generating virtual viewpoint image
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
US6608622B1 (en) Multi-viewpoint image processing method and apparatus
JP2005529559A (en) Method for generating a stereoscopic image from a monoscope image
EP2393298A1 (en) Method and apparatus for generating multiple image views for a multiview autostereoscopic display device
JP5824953B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JPH07129792A (en) Method and device for image processing
JPH0749944A (en) Method and device for image processing
CN103828362B (en) Imaging device and videograph and playback system
JP3054312B2 (en) Image processing apparatus and method
JP6076083B2 (en) Stereoscopic image correction apparatus and program thereof
KR20110025083A (en) Apparatus and method for displaying 3d image in 3d image system
WO2019026183A1 (en) Image generation device and image generation method
JP6595878B2 (en) Element image group generation apparatus and program thereof
JPH11155151A (en) Three-dimension image-pickup display system
CN109379577B (en) Video generation method, device and equipment of virtual viewpoint
JP6076082B2 (en) Stereoscopic image correction apparatus and program thereof
KR101883883B1 (en) method for glass-free hologram display without flipping images
Hamaguchi et al. Real-time view interpolation system for super multiview 3D display
JP7437941B2 (en) Stereoscopic image generation device and its program
JPH09261537A (en) Device and method for processing image