JP2000215311A - Method and device for generating virtual viewpoint image - Google Patents

Method and device for generating virtual viewpoint image

Info

Publication number
JP2000215311A
JP2000215311A JP11012562A JP1256299A JP2000215311A JP 2000215311 A JP2000215311 A JP 2000215311A JP 11012562 A JP11012562 A JP 11012562A JP 1256299 A JP1256299 A JP 1256299A JP 2000215311 A JP2000215311 A JP 2000215311A
Authority
JP
Japan
Prior art keywords
viewpoint
virtual viewpoint
depth map
depth
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11012562A
Other languages
Japanese (ja)
Other versions
JP3593466B2 (en
Inventor
Kaori Hiruma
香織 昼間
Takayuki Okimura
隆幸 沖村
Kenji Nakazawa
憲二 中沢
Kazutake Kamihira
員丈 上平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP01256299A priority Critical patent/JP3593466B2/en
Publication of JP2000215311A publication Critical patent/JP2000215311A/en
Application granted granted Critical
Publication of JP3593466B2 publication Critical patent/JP3593466B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make generable a smooth virtual viewpoint image by a relatively simple processing by relieving the positional limitation for a virtual viewpoint capable of being generated in a virtual viewpoint image generating method generating an image seen from a viewpoint position where a camera is not actually placed. SOLUTION: Two or more depth maps are generated from plural images of different viewpoints (101 to 106), and a virtual viewpoint depth map seen from a virtual viewpoint is generated on the basis of the depth maps (107). The depth value of an area being invisible from a certain viewpoint is interpolated with information from another viewpoint, a pixel whose depth value is not decided is subjected to linear interpolation by using the depth values of ambient pixels and is further subjected to smoothing processing (108 and 109). Then, the pixels of a multi viewpoint image (real image) are rearranged on the basis of the virtual viewpoint depth map to reconfigure a virtual viewpoint image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は,視点位置の異なる
複数の画像と,その視点位置から見た被写体の奥行き情
報を入力とし,実際にはカメラの置かれていない任意の
視点位置から見た画像を出力する仮想視点画像生成方法
およびその装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention receives a plurality of images having different viewpoint positions and depth information of a subject viewed from the viewpoint positions as inputs and views the images from an arbitrary viewpoint position where no camera is actually placed. The present invention relates to a virtual viewpoint image generation method and an apparatus for outputting an image.

【0002】[0002]

【従来の技術】従来,実写イメージをもとに撮像した位
置とは異なる視点の画像を再構成する方法として,例え
ば「多視点映像から任意視点映像の生成」(信学技報,
IE96-121:91-98, 1997.)に記載されている方法がある。
この方法は,多視点画像から物体の奥行きマップを推定
し,このマップを仮想的な視点の奥行きマップに変換し
た後,与えられた多視点画像を利用して仮想視点画像を
生成する。
2. Description of the Related Art Conventionally, as a method of reconstructing an image at a viewpoint different from a position captured based on a real image, for example, "generation of arbitrary viewpoint video from multi-view video" (IEICE Technical Report,
IE96-121: 91-98, 1997.).
In this method, a depth map of an object is estimated from a multi-view image, the map is converted into a depth map of a virtual viewpoint, and a virtual viewpoint image is generated using the given multi-view image.

【0003】図17は,前記の従来方法で用いる多眼カ
メラシステムのカメラ配置と仮想視点画像生成の概念を
説明するための図である。図17において,81は基準
カメラ,82〜85は参照カメラ,86は仮想視点位置
(生成する仮想視点画像の視点位置と視線方向)を示し
たものである。この方法では,基準カメラ81で撮影し
た基準画像中のある点に対し,参照カメラ82,83,
84,85で撮影した各参照画像のエピポーララインに
沿ってマッチングウインドウを1画素ずつ移動させなが
らマッチングの尺度であるSSD(sum of squared-diff
erence) を計算する。マッチングウインドウをdだけ移
動させたとき,4つの方向からSSDの値が計算され
る。このうち,小さい方の2つの値を加算する。このよ
うな処理を探索範囲内にわたって行い,その最小値のと
ころのdを視差として求める。視差dと奥行きzは,カ
メラの焦点距離fとカメラ間距離bと次式の関係があ
る。
FIG. 17 is a diagram for explaining the concept of camera arrangement and virtual viewpoint image generation in a multi-lens camera system used in the conventional method. In FIG. 17, reference numeral 81 denotes a reference camera, reference numerals 82 to 85 denote reference cameras, and reference numeral 86 denotes a virtual viewpoint position (a viewpoint position and a line-of-sight direction of a generated virtual viewpoint image). In this method, a reference camera 82, 83,
While moving the matching window one pixel at a time along the epipolar line of each reference image captured at 84 and 85, the matching scale SSD (sum of squared-diff) is used.
erence). When the matching window is moved by d, SSD values are calculated from four directions. Of these, the smaller of the two values is added. Such processing is performed over the search range, and d at the minimum value is obtained as parallax. The parallax d and the depth z have the following relationship with the focal length f of the camera and the distance b between the cameras.

【0004】z=bf/d この関係を用いて,基準カメラ81のカメラ位置から見
た奥行きマップを生成する。次にこの奥行きマップを仮
想視点位置86から見た奥行きマップに変換する。基準
カメラ81から観測できる領域は,同時にテクスチャマ
ッピングを行う。視点の移動に伴い新たに生じた領域
は,奥行き値を線形補間し,参照画像のテクスチャをマ
ッピングして,仮想視点画像を生成する。
Z = bf / d Using this relationship, a depth map viewed from the camera position of the reference camera 81 is generated. Next, this depth map is converted into a depth map viewed from the virtual viewpoint position 86. For the area that can be observed from the reference camera 81, texture mapping is performed at the same time. For a region newly generated due to the movement of the viewpoint, a virtual viewpoint image is generated by linearly interpolating the depth value and mapping the texture of the reference image.

【0005】しかし,この従来方法では,使用する多眼
画像の各画素について対応点を推定しなければならない
ため,基準カメラ81と参照カメラ82〜85の間隔,
すなわち基線長が制限される。仮想視点画像は,多視点
画像からテクスチャマッピングにより生成されるので,
自然な仮想視点画像が得られる仮想視点位置は,図17
の点線で示した範囲内に限られる。ゆえに,仮想視点を
置くことのできる範囲が制限されるという問題がある。
However, in this conventional method, since a corresponding point must be estimated for each pixel of the multi-view image to be used, the distance between the reference camera 81 and the reference cameras 82 to 85,
That is, the base line length is limited. Since the virtual viewpoint image is generated by texture mapping from the multi-view image,
The virtual viewpoint position at which a natural virtual viewpoint image is obtained is shown in FIG.
Within the range shown by the dotted line. Therefore, there is a problem that the range in which the virtual viewpoint can be placed is limited.

【0006】このほかの従来技術として,例えば「View
Generation for Three-Dimentional Scenes from Vide
o Sequence」(IEEE Trans. Image Processing, vol.6 p
p.584-598, Apr.1997)に記載されているような方法があ
る。これは,ビデオカメラで撮影した一連の映像シーク
エンスをもとに,三次元空間における物体の位置および
輝度の情報を取得し,これを再構成しようとする画像の
視点に合わせて三次元空間に幾何変換し,さらに二次元
平面に射影する方法である。
As another conventional technique, for example, "View
Generation for Three-Dimentional Scenes from Vide
o Sequence '' (IEEE Trans.Image Processing, vol.6 p
p.584-598, Apr. 1997). This involves acquiring information on the position and brightness of an object in a three-dimensional space based on a series of video images captured by a video camera, and geometrically mapping this information to the viewpoint of the image to be reconstructed. It is a method of transforming and projecting on a two-dimensional plane.

【0007】図18は,この従来方法の撮影方法を幾何
学的に示した図である。図18において,87は被写
体,88はビデオカメラ,89はビデオカメラで撮影す
るときの水平な軌道である。この方法では,ビデオカメ
ラ88を手に持ち,軌道89に沿ってビデオカメラ88
を移動しながら被写体87を撮像した映像シークエンス
を用いて,三次元空間における物体の位置および輝度の
情報を取得する。
FIG. 18 is a view geometrically showing the photographing method of the conventional method. In FIG. 18, reference numeral 87 denotes a subject, 88 denotes a video camera, and 89 denotes a horizontal trajectory when shooting with a video camera. In this method, a video camera 88 is held in a hand, and the video camera 88 is moved along an orbit 89.
The information of the position and the brightness of the object in the three-dimensional space is acquired using the video sequence in which the subject 87 is imaged while moving.

【0008】図19は,図18に示す方法により撮影し
た映像シークエンスに含まれる個々の映像フレームの位
置関係を示している。図19において,91〜95はビ
デオカメラ88で撮影した映像フレームである。図19
に示すように,個々のフレームが視差像となるので,こ
れらの画像間で対応点を抽出することにより,被写体の
三次元空間における位置および輝度の情報が求められ
る。
FIG. 19 shows a positional relationship between individual video frames included in a video sequence shot by the method shown in FIG. In FIG. 19, reference numerals 91 to 95 denote video frames photographed by the video camera 88. FIG.
As shown in (1), each frame becomes a parallax image. By extracting corresponding points between these images, information on the position and luminance of the subject in the three-dimensional space is obtained.

【0009】この方法では,ビデオカメラを移動させて
撮影した映像シークエンスから視差像を取得するため,
静止物体については適用できるが,動物体については適
用できないという問題がある。また,この方法は,被写
体の三次元空間における位置情報をもとに三次元形状モ
デルを生成して,これにテクスチャマッピングする手法
であるため,位置情報の誤差により,生成される仮想視
点画像の不自然さが目立つという問題がある。さらに,
この方法は,三次元形状モデルを生成するため,処理す
るデータ量が多く,リアルタイム処理に向かないという
問題がある。
In this method, a parallax image is obtained from a video sequence taken by moving a video camera.
There is a problem that it can be applied to stationary objects but not to moving objects. In addition, since this method is a method of generating a three-dimensional shape model based on the position information of the subject in the three-dimensional space and performing texture mapping on the model, the error of the position information causes the generated virtual viewpoint image to be generated. There is a problem that unnaturalness is conspicuous. further,
Since this method generates a three-dimensional shape model, there is a problem that the amount of data to be processed is large and the method is not suitable for real-time processing.

【0010】[0010]

【発明が解決しようとする課題】本発明は,上記問題点
を解決するためのものである。本発明の目的は,生成可
能な仮想視点画像の視点位置の範囲が狭いという制限を
緩和し,比較的簡易な処理で動画像を含む自然で滑らか
な仮想視点画像を生成できる仮想視点画像生成方法およ
び装置を提供することにある。
SUMMARY OF THE INVENTION The present invention is to solve the above problems. SUMMARY OF THE INVENTION It is an object of the present invention to provide a virtual viewpoint image generation method capable of relaxing a restriction that a range of a viewpoint position of a virtual viewpoint image that can be generated is narrow and generating a natural and smooth virtual viewpoint image including a moving image by relatively simple processing. And to provide a device.

【0011】[0011]

【課題を解決するための手段】本発明の前記目的を達成
するための代表的な手段の概要を以下に簡単に説明す
る。
An outline of typical means for achieving the above object of the present invention will be briefly described below.

【0012】(1)任意の視点位置から見た画像を生成
するための仮想視点画像生成方法において,それぞれ異
なる位置を視点とする複数の画像データを入力し,前記
多視点画像データをもとに,多視点画像データの各画素
について多視点画像データの視点位置から被写体までの
奥行き値を保持する奥行きマップを生成し,前記多視点
奥行きマップの任意の1枚の奥行きマップをもとに,実
際にはカメラが置かれていない視点から見た仮想視点奥
行きマップを生成し,前記多視点奥行きマップの任意の
1枚の視点位置から見ると物体の影になって隠されてい
るオクルージョン領域の奥行きデータを,そのオクルー
ジョン領域が隠されないような他の視点位置から見た別
の多視点奥行きマップのデータで補間し,前記の方法を
用いても補間できない仮想視点奥行きマップのオクルー
ジョン領域の奥行きデータを,周囲の奥行きデータを用
いて補間処理し,前記補間処理された仮想視点奥行きマ
ップの奥行きの値の分布が滑らかでない部分を平滑化処
理し,前記平滑化処理された仮想視点奥行きマップが持
つ被写体の奥行きデータに基づいて,多視点画像データ
の画素を並べ変えてその濃淡値を描画することにより,
実際にはカメラが置かれていない視点から見た画像を生
成することを特徴とするものである。
(1) In a virtual viewpoint image generation method for generating an image viewed from an arbitrary viewpoint position, a plurality of image data each having a viewpoint at a different position are input, and based on the multi-view image data. And generating a depth map for each pixel of the multi-view image data from the viewpoint position of the multi-view image data to the subject, and based on any one depth map of the multi-view depth map, Generates a virtual viewpoint depth map viewed from the viewpoint where the camera is not placed, and the depth of the occlusion area hidden as a shadow of an object when viewed from any one viewpoint position of the multi-view depth map. The data can be interpolated with the data of another multi-view depth map viewed from another viewpoint position so that the occlusion area is not hidden, and interpolation can be performed using the above method. The depth data of the occlusion area of the virtual viewpoint depth map is interpolated by using the surrounding depth data, and the interpolated portion of the virtual viewpoint depth map in which the depth value distribution is not smooth is smoothed. By rearranging the pixels of the multi-viewpoint image data based on the depth data of the subject in the smoothed virtual viewpoint depth map and drawing the grayscale value,
In actuality, an image viewed from a viewpoint where a camera is not placed is generated.

【0013】(2)前記(1)の目的を達成するための
仮想視点画像生成装置として,それぞれ異なる位置を視
点とする複数の画像データを入力する多視点画像データ
入力手段と,前記多視点画像データをもとに,多視点画
像データの各画素についてカメラから被写体までの奥行
き値を保持する奥行きマップを生成する多視点奥行きマ
ップ生成手段と,前記多視点奥行きマップをもとに,実
際にはカメラが置かれていない視点から見た奥行きマッ
プを生成する仮想視点奥行きマップ生成手段と,前記仮
想視点奥行きマップに対する補間処理等を行う仮想視点
奥行きマップ補正処理手段と,前記仮想視点奥行きマッ
プが持つ被写体の奥行きデータに基づいて,多視点画像
データの画素を並べ変えてその濃淡値を描画することに
より実際にはカメラが置かれていない視点から見た画像
を生成する仮想視点画像生成手段とを有し,前記仮想視
点奥行きマップ補正処理手段は,前記多視点奥行きマッ
プの任意の1枚の視点位置から見ると物体の影になって
隠されているオクルージョン領域の奥行きデータを,そ
のオクルージョン領域が隠されないような他の視点位置
から見た別の多視点奥行きマップのデータで補間し,前
記他の視点位置から見た多視点奥行きマップのデータで
補間する手段を用いても補間できないオクルージョン領
域の奥行きデータを,周囲の奥行きデータを用いて補間
処理する仮想視点奥行きマップ補間処理手段と,仮想視
点奥行きマップの奥行きの値の分布が滑らかでない部分
を平滑化処理する仮想視点奥行きマップ平滑化処理手段
とを有することを特徴とする。
(2) As a virtual viewpoint image generating apparatus for achieving the object of (1), a multi-view image data input means for inputting a plurality of image data each having a different position as a viewpoint, A multi-view depth map generating means for generating a depth map for retaining a depth value from a camera to a subject for each pixel of the multi-view image data based on the data; A virtual viewpoint depth map generating means for generating a depth map viewed from a viewpoint where the camera is not placed, a virtual viewpoint depth map correction processing means for performing interpolation processing on the virtual viewpoint depth map, and the virtual viewpoint depth map By actually rearranging the pixels of the multi-viewpoint image data based on the depth data of the subject and drawing the grayscale values, Virtual viewpoint image generation means for generating an image viewed from a viewpoint on which the object is not placed, wherein the virtual viewpoint depth map correction processing means includes an object when viewed from any one viewpoint position of the multi-viewpoint depth map. The depth data of the occlusion area hidden by the shadow of the image is interpolated by data of another multi-view depth map viewed from another viewpoint position so that the occlusion area is not hidden, and the data is viewed from the other viewpoint position. Virtual viewpoint depth map interpolation processing means for interpolating depth data of an occlusion area, which cannot be interpolated by means of multi-view depth map data, using surrounding depth data; Virtual viewpoint depth map smoothing processing means for performing smoothing processing on a portion where the value distribution is not smooth.

【0014】(3)前記(2)の仮想視点画像生成装置
において,多視点奥行きマップ生成手段は,多視点画像
データ間の対応点を抽出してステレオ法により奥行きを
推定するものであることを特徴とする。
(3) In the virtual viewpoint image generating apparatus of (2), the multi-viewpoint depth map generating means extracts a corresponding point between the multi-viewpoint image data and estimates the depth by a stereo method. Features.

【0015】(4)前記(2)の仮想視点画像生成装置
において,多視点奥行きマップ生成手段は,レーザ光や
画像パターンを照射することにより奥行きを推定するも
のであることを特徴とする。
(4) In the virtual viewpoint image generating apparatus of (2), the multi-viewpoint depth map generating means estimates the depth by irradiating a laser beam or an image pattern.

【0016】(5)前記(2)の仮想視点画像生成装置
において,多視点画像データ入力手段は,カメラと鏡等
を組み合わせることにより,1台のカメラで複数の視点
位置における多視点画像データを取得できるようなもの
であることを特徴とする。
(5) In the virtual viewpoint image generation device of (2), the multi-view image data input means combines multi-view image data at a plurality of viewpoint positions with one camera by combining a camera and a mirror. It is characterized in that it can be acquired.

【0017】すなわち,本発明においては,複数の視点
から見た奥行きマップを同時に取得し,これらを統合し
て仮想視点位置から見た奥行きマップを生成することを
特徴とする。
That is, the present invention is characterized in that depth maps viewed from a plurality of viewpoints are simultaneously obtained, and these are integrated to generate a depth map viewed from a virtual viewpoint position.

【0018】従来技術のように,多視点画像間の対応点
を抽出して多視点画像間を補間する方法とは,本発明
は,対応点抽出する多視点画像のカメラ位置の外側に仮
想視点位置を置いても滑らかな仮想視点画像を生成でき
るという点で異なる。また,ビデオカメラを移動しなが
ら視差像を撮像する方法とは,本発明は,動物体にも適
用可能であり,明らかな三次元形状モデルを生成しない
という点で異なる。
A method of extracting a corresponding point between multi-view images and interpolating between the multi-view images as in the prior art is disclosed in the present invention. The difference is that a smooth virtual viewpoint image can be generated even if the position is set. The present invention is different from the method of capturing a parallax image while moving a video camera in that the present invention is applicable to a moving object and does not generate a clear three-dimensional shape model.

【0019】本発明の作用は,以下のとおりである。本
発明では,複数の奥行きマップを統合して1枚の仮想視
点の奥行きマップを生成するため,奥行きマップの生成
に関与しない画像間については対応点を推定する必要が
ない。したがって,すべての多視点画像間の対応点が抽
出されなくても,仮想視点画像を生成することができ
る。このため,多視点画像のカメラ間隔が離れている場
合においても,滑らかな仮想視点画像を生成することが
できる。
The operation of the present invention is as follows. In the present invention, since a plurality of depth maps are integrated to generate a single virtual viewpoint depth map, it is not necessary to estimate corresponding points between images that are not involved in the generation of the depth map. Therefore, a virtual viewpoint image can be generated even if corresponding points between all multi-viewpoint images are not extracted. Therefore, even when the camera interval of the multi-viewpoint image is far, a smooth virtual viewpoint image can be generated.

【0020】本発明は,一方の視点から見えないオクル
ージョン領域の奥行きデータを他の視点から見た奥行き
データで補間して仮想視点奥行きマップを生成する手法
であるため,1枚の奥行きマップから仮想視点奥行きマ
ップを生成する手法と比較して,密な仮想視点奥行きマ
ップを生成することができる。
The present invention is a method of generating a virtual viewpoint depth map by interpolating depth data of an occlusion area that cannot be seen from one viewpoint with depth data viewed from another viewpoint. A dense virtual viewpoint depth map can be generated as compared with a method of generating a viewpoint depth map.

【0021】また,本発明は,いったん仮想視点から見
た奥行きマップを生成し,この仮想視点奥行きマップに
多視点画像データをマッピングする手法であるため,三
次元形状モデルにテクスチャマッピングを施す手法と比
較して,より精度の低い奥行きマップからも,より滑ら
かな仮想視点画像を生成することができる。
Also, the present invention is a method of generating a depth map once viewed from a virtual viewpoint and mapping multi-view image data to the virtual viewpoint depth map. In comparison, a smoother virtual viewpoint image can be generated from a lower-accuracy depth map.

【0022】また,本発明は,三次元形状モデルを生成
しないため,仮想視点画像生成処理にかかるデータ量を
低く抑えることができる。
Further, according to the present invention, since a three-dimensional shape model is not generated, the amount of data required for the virtual viewpoint image generation processing can be reduced.

【0023】[0023]

【発明の実施の形態】〔第1の実施の形態〕図1は,本
発明の第1の実施の形態による仮想視点画像生成装置の
全体的な構成の概要を示す図である。図中,10は被写
体,21〜24,31〜34はカメラ,100は仮想視
点画像生成部,40は画像表示装置を表す。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] FIG. 1 is a diagram showing an outline of an overall configuration of a virtual viewpoint image generating apparatus according to a first embodiment of the present invention. In the figure, 10 is a subject, 21 to 24, 31 to 34 are cameras, 100 is a virtual viewpoint image generation unit, and 40 is an image display device.

【0024】奥行きマップは,ステレオ法により,多眼
カメラ21〜24により取得された多眼画像と多眼カメ
ラ31〜34により取得された多眼画像から,それぞれ
1枚ずつ合計2枚を取得する。これらの奥行きマップと
カメラ21〜24,31〜34により取得された多眼画
像を仮想視点画像生成部100に入力し,仮想視点画像
生成部100で生成された仮想視点画像を画像表示装置
40に表示する。
As the depth map, a total of two depth maps are obtained from the multi-view images obtained by the multi-view cameras 21 to 24 and the multi-view images obtained by the multi-view cameras 31 to 34, respectively. . The depth map and the multi-view images acquired by the cameras 21 to 24 and 31 to 34 are input to the virtual viewpoint image generation unit 100, and the virtual viewpoint image generated by the virtual viewpoint image generation unit 100 is transmitted to the image display device 40. indicate.

【0025】図1では,4台のカメラから1枚の奥行き
マップを取得する場合について示しているが,任意の台
数のカメラから1枚の奥行きマップを取得してもよい。
また,図1では,2ヶ所の視点位置から見た奥行きマッ
プを取得する場合について説明したが,3ヶ所以上の視
点位置から見た奥行きマップを取得してもよい。
Although FIG. 1 shows a case where one depth map is obtained from four cameras, one depth map may be obtained from any number of cameras.
Although FIG. 1 illustrates the case where a depth map viewed from two viewpoint positions is obtained, a depth map viewed from three or more viewpoint positions may be obtained.

【0026】以上により構成された仮想視点画像生成装
置における処理動作を,図2を用いて説明する。図2
は,図1に示す仮想視点画像生成装置の処理の流れを説
明するためのブロック図である。図中,カメラ装置2
0,30は多視点画像を撮影するための上下左右のマト
リックス状に配置された多眼のカメラ装置である。多視
点画像入力部101は,カメラ装置20,30によって
撮影された多視点画像を入力する。奥行き検出部102
は,カメラ装置20,30のそれぞれの視点位置から見
た被写体の奥行きデータを検出する。
The processing operation in the virtual viewpoint image generating apparatus configured as described above will be described with reference to FIG. FIG.
FIG. 3 is a block diagram for explaining a processing flow of the virtual viewpoint image generation device shown in FIG. 1. In the figure, camera device 2
Reference numerals 0 and 30 are multi-view camera devices arranged in a matrix of up, down, left, and right for capturing a multi-viewpoint image. The multi-view image input unit 101 inputs a multi-view image captured by the camera devices 20 and 30. Depth detector 102
Detects the depth data of the subject viewed from the respective viewpoint positions of the camera devices 20 and 30.

【0027】視点位置指定部103は,生成しようとす
る仮想視点画像の視点位置を指定する手段である。奥行
きマップ入力部104は,奥行き検出部102によって
検出された奥行きデータを奥行きマップとして入力す
る。仮想視点位置入力部105は,視点位置指定部10
3によって指定された視点位置を入力する。カメラパラ
メータデータ入力部106は,多眼のカメラ装置20,
30の位置や焦点距離等のカメラパラメータを入力す
る。仮想視点奥行きマップ生成部107は,奥行きマッ
プ入力部104の奥行きマップと仮想視点位置入力部1
05の仮想視点位置データとカメラパラメータデータ入
力部106のカメラパラメータデータをもとに仮想視点
奥行きマップを生成する。
The viewpoint position designation unit 103 is a means for designating a viewpoint position of a virtual viewpoint image to be generated. The depth map input unit 104 inputs the depth data detected by the depth detection unit 102 as a depth map. The virtual viewpoint position input unit 105 includes the viewpoint position designation unit 10
The viewpoint position designated by 3 is input. The camera parameter data input unit 106 includes the multi-eye camera device 20,
Camera parameters such as the position of 30 and the focal length are input. The virtual viewpoint depth map generation unit 107 includes a depth map of the depth map input unit 104 and the virtual viewpoint position input unit 1.
A virtual viewpoint depth map is generated based on the virtual viewpoint position data 05 and the camera parameter data of the camera parameter data input unit 106.

【0028】奥行きマップ補間処理部108は,仮想視
点奥行きマップ生成部107で生成された仮想視点奥行
きマップで欠落した部分を補間処理する。奥行きマップ
平滑化処理部109は,奥行きマップ補間処理部108
で補間処理された奥行きマップを平滑化処理する。仮想
視点画像再構成部110は,多視点画像入力部101の
多視点画像をもとに奥行きマップ平滑化処理部109で
処理された仮想視点奥行きマップと仮想視点位置入力部
105の仮想視点位置データとカメラパラメータデータ
入力部106のカメラパラメータデータに基づいて,仮
想視点画像を再構成する。画像表示部111は,仮想視
点画像再構成部110によって構成された仮想視点画像
を表示する。表示スクリーン41は,仮想視点画像を表
示させるための装置である。
The depth map interpolation processing unit 108 performs an interpolation process on a missing part in the virtual viewpoint depth map generated by the virtual viewpoint depth map generation unit 107. The depth map smoothing processing unit 109 includes a depth map interpolation processing unit 108
Performs a smoothing process on the depth map interpolated. The virtual viewpoint image reconstructing unit 110 includes a virtual viewpoint depth map processed by the depth map smoothing processing unit 109 based on the multi viewpoint image of the multi viewpoint image input unit 101 and virtual viewpoint position data of the virtual viewpoint position input unit 105. Then, the virtual viewpoint image is reconstructed based on the camera parameter data of the camera parameter data input unit 106. The image display unit 111 displays the virtual viewpoint image formed by the virtual viewpoint image reconstruction unit 110. The display screen 41 is a device for displaying a virtual viewpoint image.

【0029】奥行き検出部102には,例えば多眼のカ
メラ画像の対応点を抽出してステレオ法により奥行きを
推定する装置を用いる。奥行き検出部102の動作を,
図3を用いて詳細に説明する。図3は,多眼カメラシス
テムのカメラ配置と投影の概念を説明するための図であ
る。
As the depth detection unit 102, for example, a device that extracts corresponding points of a multi-view camera image and estimates the depth by a stereo method is used. The operation of the depth detection unit 102
This will be described in detail with reference to FIG. FIG. 3 is a diagram for explaining the concept of camera arrangement and projection of the multi-lens camera system.

【0030】原点に基準カメラ51を置き,その周りの
一定の距離Lに4つの参照カメラ52〜55を置く。す
べてのカメラの光軸は平行にする。また,すべてのカメ
ラは同じ仕様のものを用い,仕様の違いはカメラの構成
に応じて補正し,図3に示すような幾何学構成に補正す
る。図3の配置では,三次元空間の点P=(X,Y,
Z)はX−Y平面から焦点距離fの距離にある基準画像
上の点p0 =(u0 ,v 0 )に投影される。ここで,u
0 =fX/Z,v0 =fY/Z,である。点Pはまた,
参照カメラCi (i=1,2,3,4)の画像上の点p
i =(ui ,vi)にも投影される。ここで, ui =f(X−Di,x )/Z vi =f(Y−Di,y )/Z ただし,基線長ベクトルDi =(Di,x ,Di,y )はそ
れぞれD1 =(L,0),D2 =(−L,0),D3
(0,L),D4 =(0,−L)である。すべての参照
カメラ52〜55と基準カメラ51の基線長が等しい構
成の下では,点Pの真の視差di は,すべてのiに対し
て, di =fL/Z=|pi −p0 | であることから,視差を推定することによって奥行きが
取得できる。視差から奥行きを求めるためには最低2台
のカメラがあれば可能であるが,図3に示すようなカメ
ラ構成を用いることにより,オクルージョンのために真
の視差の推定が困難で奥行きを決定できないような場合
を回避することができる。
The reference camera 51 is placed at the origin, and the
The four reference cameras 52 to 55 are placed at a fixed distance L. You
The optical axes of all cameras are parallel. Also, all turtles
The same specifications are used for the camera.
And a geometric configuration as shown in FIG.
You. In the arrangement of FIG. 3, a point P = (X, Y,
Z) is a reference image located at a distance of the focal length f from the XY plane.
Upper point p0= (U0, V 0). Where u
0= FX / Z, v0= FY / Z. Point P is also
Reference camera CiThe point p on the image of (i = 1, 2, 3, 4)
i= (Ui, Vi) Is also projected. Where ui= F (X-Di, x) / Z vi= F (Y-Di, y) / Z where baseline length vector Di= (Di, x, Di, y)
Each D1= (L, 0), DTwo= (-L, 0), DThree=
(0, L), DFour= (0, -L). All references
A configuration in which the baseline lengths of the cameras 52 to 55 and the reference camera 51 are equal.
Under the condition, the true parallax d of the point PiFor all i
Di= FL / Z = | pi-P0|, The depth is estimated by estimating the parallax.
Can be obtained. At least 2 units to obtain depth from parallax
It is possible if there is a camera of
The use of a la structure allows for true occlusion.
When it is difficult to estimate the parallax of the object and the depth cannot be determined
Can be avoided.

【0031】次に,仮想視点奥行きマップ生成部107
の動作をより詳細に説明する。奥行きマップは,ある視
点位置から撮影された画像中の各画素について,カメラ
から被写体までの距離の値を保持するものである。いわ
ば,通常の画像は画像面上の各画素に輝度と色度とが対
応しているものであるのに対し,奥行きマップは,画像
面上の各画素に奥行き値が対応しているものである。
Next, the virtual viewpoint depth map generation unit 107
Will be described in more detail. The depth map holds the value of the distance from the camera to the subject for each pixel in an image captured from a certain viewpoint position. In other words, while a normal image has brightness and chromaticity corresponding to each pixel on the image plane, a depth map has a depth value corresponding to each pixel on the image plane. is there.

【0032】仮想視点奥行きマップ生成部107では,
奥行きマップ入力部104に保持されている奥行きマッ
プと仮想視点位置入力部105の仮想視点位置データと
カメラパラメータデータ入力部106のカメラパラメー
タデータに基づいて,仮想視点から見た奥行きマップを
生成する。奥行きマップ入力部104に保持されている
奥行きマップは,多視点画像を撮影した各視点位置から
見た画像の各画素についての被写体の奥行き情報を持つ
ものとする。
In the virtual viewpoint depth map generation unit 107,
On the basis of the depth map held in the depth map input unit 104, the virtual viewpoint position data of the virtual viewpoint position input unit 105, and the camera parameter data of the camera parameter data input unit 106, a depth map viewed from a virtual viewpoint is generated. It is assumed that the depth map held in the depth map input unit 104 has subject depth information on each pixel of the image viewed from each viewpoint position where the multi-viewpoint image is captured.

【0033】まず,仮想視点位置入力部105の仮想視
点位置データとカメラパラメータデータ入力部106の
カメラパラメータデータとにより,仮想視点位置に最も
近い視点位置から見た奥行きマップを,奥行きマップ入
力部104に保持されている奥行きマップの中から2枚
以上選択する。
First, based on the virtual viewpoint position data of the virtual viewpoint position input unit 105 and the camera parameter data of the camera parameter data input unit 106, a depth map viewed from the viewpoint position closest to the virtual viewpoint position is obtained. 2 or more are selected from the depth maps stored in.

【0034】図4に,実画像を撮影した視点と仮想視点
のカメラ座標系と投影画像面の座標系とを示す。選択さ
れた奥行きマップのうち任意の1枚を撮像したカメラ座
標系を(X1 ,Y1 ,Z1 T ,仮想視点位置のカメラ
座標系を(X2 ,Y2 ,Z2T とする。前記奥行きマ
ップ上の任意の点pi =(u1 ,v1 )に投影された三
次元空間の点P=(X1 ,Y1 ,Z1 T のZ1 が求め
られているとき,実視点の座標系から見た点PのX,Y
座標はそれぞれ X1 =Z1 1 /f (式1) Y1 =Z′v1 /f (式2) で与えられる。ここで,fはカメラの焦点距離である。
FIG. 4 shows the camera coordinate system of the viewpoint from which the real image was captured, the virtual viewpoint, and the coordinate system of the projected image plane. A camera coordinate system that captures an arbitrary one of the selected depth maps is (X 1 , Y 1 , Z 1 ) T , and a camera coordinate system of the virtual viewpoint position is (X 2 , Y 2 , Z 2 ) T. I do. When the depth arbitrary point p i = (u 1, v 1) on the map point of the projected three-dimensional space in P = (X 1, Y 1 , Z 1) T Z 1 of is sought, X, Y of point P viewed from the coordinate system of the real viewpoint
The coordinates are given by X 1 = Z 1 u 1 / f (Equation 1) and Y 1 = Z′v 1 / f (Equation 2). Here, f is the focal length of the camera.

【0035】今,二つの座標系(X1 ,Y1 ,Z1 T
と(X2 ,Y2 ,Z2 T とが,回転行列R21
[rij]∈R3x3 と並進行列T21=(Δx,Δy,Δ
z)T を用いて, (X2 ,Y2 ,Z2 T =R21(X1 ,Y1 ,Z1 T +T21 (式3) の関係で表わせるとする。(式3)より得られた奥行き
値Z2 は,仮想視点座標系(X2 ,Y2 ,Z2 T で見
た点Pの奥行き値である。点P=(X2 ,Y2 ,Z2
T は,仮想視点奥行きマップ上の点p2 =(u2
2 )に投影される。(u2 ,v2 )は,(式3)によ
り得られたX2 ,Y2 を用いて,次式により求められ
る。
Now, two coordinate systems (X 1 , Y 1 , Z 1 ) T
And (X 2 , Y 2 , Z 2 ) T form a rotation matrix R 21 =
[R ij ] ∈R 3x3 and the translation sequence T 21 = (Δx, Δy, Δ
z) Using T , it can be expressed by the relationship of (X 2 , Y 2 , Z 2 ) T = R 21 (X 1 , Y 1 , Z 1 ) T + T 21 (Equation 3). The depth value Z 2 obtained from (Equation 3) is the depth value of the point P viewed in the virtual viewpoint coordinate system (X 2 , Y 2 , Z 2 ) T. Point P = (X 2 , Y 2 , Z 2 )
T is a point on the virtual viewpoint depth map, p 2 = (u 2 ,
v 2 ). (U 2 , v 2 ) is obtained by the following equation using X 2 and Y 2 obtained by (Equation 3).

【0036】u2 =fX2 /Z2 (式4) v2 =fY2 /Z2 (式5) したがって,仮想視点奥行きマップ上の点p2
(u2 ,v2 )の奥行き値をZ2 と決定できる。
U 2 = fX 2 / Z 2 (Equation 4) v 2 = fY 2 / Z 2 (Equation 5) Therefore, the point p 2 = on the virtual viewpoint depth map
The depth value of (u 2 , v 2 ) can be determined as Z 2 .

【0037】以上の処理を,奥行きマップ中のすべての
点(u1 ,v1 )について繰り返し行い,選択された奥
行きマップの保持する奥行きの値を,仮想視点から見た
奥行きマップ中の画素の奥行き値に変換する。同様の処
理を,選択されたすべての奥行きマップについて行うこ
とにより,奥行き値の空白の少ない,密な仮想視点奥行
きマップを作る。
The above processing is repeated for all the points (u 1 , v 1 ) in the depth map, and the depth value held by the selected depth map is changed to the pixel value in the depth map viewed from the virtual viewpoint. Convert to depth value. By performing the same processing for all the selected depth maps, a dense virtual viewpoint depth map with a small depth value blank is created.

【0038】次に,奥行きマップ補間処理部108と奥
行きマップ平滑化処理部109について,図5を用いて
説明する。図5(B)〜(E)は,図5(A)に示す球
を撮影した画像を走査線A−Bで切断し,その走査線上
の奥行きの値を縦軸に表したものである。
Next, the depth map interpolation processing unit 108 and the depth map smoothing processing unit 109 will be described with reference to FIG. 5B to 5E show an image obtained by photographing the sphere shown in FIG. 5A cut along a scanning line AB, and the depth value on the scanning line is represented on the vertical axis.

【0039】奥行きマップ補間処理部108では,仮想
視点奥行きマップ生成部107で生成された(B)に示
す仮想視点奥行きマップ中の,オクルージョンにより視
差が推定できなかったために奥行き値を持たない画素6
1の奥行き値を,奥行き値が既知であるような周囲の画
素62の奥行き値を用いて,局所的な領域内では奥行き
は急激に変化しないという仮定の下,線形補間処理を行
う。結果として,すべての画素の奥行き値を持つ(C)
に示す仮想視点奥行きマップが生成される。
In the depth map interpolation processing unit 108, the pixels 6 having no depth value in the virtual viewpoint depth map shown in (B) generated by the virtual viewpoint depth map generation unit 107 because parallax could not be estimated due to occlusion.
Linear interpolation processing is performed on the assumption that the depth does not change abruptly in a local area, using the depth value of 1 as the depth value of the surrounding pixels 62 whose depth value is known. As a result, all pixels have depth values (C)
A virtual viewpoint depth map shown in FIG.

【0040】奥行きマップ平滑化処理部109では,奥
行きマップ補間処理部108で処理された(C)に示す
仮想視点奥行きマップの奥行き値の平滑化処理を行う。
まず,仮想視点奥行きマップの走査線上で奥行きが急激
に変化している画素63の奥行き値を除去し,周囲の画
素64の奥行き値を用いて,局所的な領域内では奥行き
は急激に変化しないという仮定の下,線形補間処理を行
い,(D)に示すような仮想視点奥行きマップを生成す
る。さらに,被写体の表面を滑らかな曲面で近似するた
めに,仮想視点奥行きマップ全体に対して平滑化処理を
行い,(E)に示す仮想視点奥行きマップを得る。
The depth map smoothing unit 109 performs a smoothing process on the depth value of the virtual viewpoint depth map shown in FIG.
First, the depth value of the pixel 63 whose depth is rapidly changing on the scanning line of the virtual viewpoint depth map is removed, and the depth does not change abruptly in the local region using the depth value of the surrounding pixels 64. Under this assumption, a linear interpolation process is performed to generate a virtual viewpoint depth map as shown in FIG. Further, in order to approximate the surface of the subject with a smooth curved surface, a smoothing process is performed on the entire virtual viewpoint depth map to obtain a virtual viewpoint depth map shown in FIG.

【0041】平滑化処理には,例えば一般的な二次微分
フィルタを用いることができる。このような被写体の表
面を滑らかな曲面で近似する平滑化処理には,仮想視点
画像にテクスチャをマッピングしたときの画質の低下を
抑制する効果がある。
For the smoothing process, for example, a general second-order differential filter can be used. Such a smoothing process for approximating the surface of a subject with a smooth curved surface has an effect of suppressing a decrease in image quality when mapping a texture to a virtual viewpoint image.

【0042】次に,仮想視点画像再構成部110につい
て,図6を用いて説明する。仮想視点画像再構成部11
0は,カメラパラメータデータ入力部106のカメラパ
ラメータデータと奥行きマップ平滑化処理部109の仮
想視点奥行きマップのデータをもとに,多視点画像入力
部101が入力した多視点画像のテクスチャをマッピン
グして,仮想視点位置入力部105の仮想視点位置から
見た仮想視点画像を生成する。
Next, the virtual viewpoint image reconstruction unit 110 will be described with reference to FIG. Virtual viewpoint image reconstruction unit 11
0 maps the texture of the multi-viewpoint image input by the multi-viewpoint image input unit 101 based on the camera parameter data of the camera parameter data input unit 106 and the data of the virtual viewpoint depth map of the depth map smoothing processing unit 109. Then, a virtual viewpoint image viewed from the virtual viewpoint position of the virtual viewpoint position input unit 105 is generated.

【0043】仮想視点画像再構成部110で用いる座標
変換は,仮想視点奥行きマップ生成部107で用いたも
のの逆変換に当たる。しかし,奥行きマップ補間処理部
108と奥行きマップ平滑化処理部109での処理によ
り,仮想視点奥行きマップの保持する奥行き値が変化し
ているため,もう一度新しい奥行き値を用いて座標変換
を行う必要がある。
The coordinate transformation used in the virtual viewpoint image reconstruction unit 110 corresponds to the inverse transformation of that used in the virtual viewpoint depth map generation unit 107. However, since the depth values held by the virtual viewpoint depth map have changed due to the processing performed by the depth map interpolation processing unit 108 and the depth map smoothing processing unit 109, it is necessary to perform the coordinate conversion again using the new depth values. is there.

【0044】ここで,仮想視点奥行きマップの座標系を
(X2 ,Y2 ,Z2 T ,多視点画像の中の任意の1枚
の座標系を(X3 ,Y3 ,Z3 T とする。仮想視点奥
行きマップ中の任意の点p2 =(u2 ,v2 )の画素の
奥行きがZ2 であるとき,この画素p2 =(u2
2 )に投影される被写体の三次元空間中の点P=(X
2,Y2 ,Z2 T の座標は, X2 =Z2 2 /f (式6) Y2 =Z2 2 /f (式7) で与えられる。ここで,fはカメラの焦点距離である。
Here, the coordinate system of the virtual viewpoint depth map is (X 2 , Y 2 , Z 2 ) T , and any one coordinate system in the multi-view image is (X 3 , Y 3 , Z 3 ). T. When the depth of a pixel at an arbitrary point p 2 = (u 2 , v 2 ) in the virtual viewpoint depth map is Z 2 , this pixel p 2 = (u 2 ,
v 2 ), a point P = (X
2 , Y 2 , Z 2 ) The coordinates of T are given by X 2 = Z 2 u 2 / f (Equation 6) Y 2 = Z 2 V 2 / f (Equation 7) Here, f is the focal length of the camera.

【0045】今,二つの座標系(X2 ,Y2 ,Z2 T
と(X3 ,Y3 ,Z3 T とが,回転行列R32
[rij]∈R3x3 と並進行列T32=(Δx,Δy,Δ
z)T を用いて, (X3 ,Y3 ,Z3 T =R32(X2 ,Y2 ,Z2 T +T32 (式8) の関係で表せるとする。(式6),(式7)を(式8)
に代入すると,(X3 ,Y3 ,Z3 T 系で見た,仮想
視点画像中の点(u2 ,v2 )に投影される被写体の三
次元空間中の点P=(X3 ,Y3 ,Z3 T が計算され
る。点Pは,実画像上の点p3 =(u3 ,v3 )に投影
される。(u3 ,v3 )は,(式8)により得られたX
3 ,Y3 を用いて次式により計算することができる。
Now, two coordinate systems (X 2 , Y 2 , Z 2 ) T
And (X 3 , Y 3 , Z 3 ) T form a rotation matrix R 32 =
[R ij ] ∈R 3x3 and the translation sequence T 32 = (Δx, Δy, Δ
z) Using T , it can be expressed by the relationship of (X 3 , Y 3 , Z 3 ) T = R 32 (X 2 , Y 2 , Z 2 ) T + T 32 (Equation 8). (Equation 6) and (Equation 7) are replaced by (Equation 8)
, The point P = (X 3 ) in the three-dimensional space of the subject projected on the point (u 2 , v 2 ) in the virtual viewpoint image viewed in the (X 3 , Y 3 , Z 3 ) T system. , Y 3 , Z 3 ) T is calculated. The point P is projected on a point p 3 = (u 3 , v 3 ) on the real image. (U 3 , v 3 ) is the X obtained by (Equation 8)
3 and Y 3, and can be calculated by the following equation.

【0046】u3 =fX3 ′/Z3 (式9) v3 =fY3 ′/Z3 (式10) この(式9),(式10)により計算された多視点画像
中の点(u3 ,v3 )の画素の輝度値と色度値を仮想視
点画像中の点(u2 ,v2 )に描画する。この処理を多
視点画像中のすべての点について繰り返し行うことで,
仮想視点位置入力部105の視点位置から見た仮想視点
画像が生成される。
U 3 = fX 3 ′ / Z 3 (Equation 9) v 3 = fY 3 ′ / Z 3 (Equation 10) The points in the multi-viewpoint image calculated by these (Equation 9) and (Equation 10) The luminance value and the chromaticity value of the pixel of u 3 , v 3 ) are drawn at the point (u 2 , v 2 ) in the virtual viewpoint image. By repeating this process for all points in the multi-view image,
A virtual viewpoint image viewed from the viewpoint position of the virtual viewpoint position input unit 105 is generated.

【0047】〔第2の実施の形態〕次に,本発明の第2
の実施の形態について,図7を用いて説明する。図7
は,第2の実施の形態による仮想視点画像生成装置の全
体的な構成の概要を示す図である。図7中,221,2
31は奥行き検出器,220,230はカメラ,10は
被写体,200は仮想視点画像生成部,240は画像表
示装置を表す。
[Second Embodiment] Next, a second embodiment of the present invention will be described.
The embodiment will be described with reference to FIG. FIG.
FIG. 7 is a diagram illustrating an outline of an overall configuration of a virtual viewpoint image generation device according to a second embodiment. In FIG.
31 is a depth detector, 220 and 230 are cameras, 10 is a subject, 200 is a virtual viewpoint image generation unit, and 240 is an image display device.

【0048】奥行き検出器221,231は,レーザビ
ームや画像パターンを照射することにより,能動的に被
写体の奥行きを取得する装置である。このような奥行き
検出器として,例えばレーザレンジファインダを用いる
ことができる。奥行き検出器221,231により取得
された奥行きマップと,カメラ220,230により取
得された多視点画像を仮想視点画像生成部200に入力
し,仮想視点画像生成部200で生成された仮想視点画
像を,画像表示装置240に表示する。
The depth detectors 221 and 231 are devices that irradiate a laser beam or an image pattern to actively acquire the depth of the subject. For example, a laser range finder can be used as such a depth detector. The depth map acquired by the depth detectors 221 and 231, and the multi-viewpoint image acquired by the cameras 220 and 230 are input to the virtual viewpoint image generation unit 200, and the virtual viewpoint image generated by the virtual viewpoint image generation unit 200 is input to the virtual viewpoint image generation unit 200. , Are displayed on the image display device 240.

【0049】図7では,奥行き検出器221,231と
カメラ220,230を別個の装置として説明したが,
一つの装置で奥行きマップと画像が同時に取得できるよ
うな装置を用いてもよい。このほか,奥行き検出器22
1,231には,カメラ220,230により撮影され
た画像の各画素についての奥行き情報を検出することが
できるいかなる装置でも用いることができる。また,図
7では,2ヶ所の視点位置から見た奥行きマップを取得
する場合について説明したが,3ヶ所以上の視点位置か
ら見た奥行きマップを取得してもよい。
In FIG. 7, the depth detectors 221 and 231 and the cameras 220 and 230 have been described as separate devices.
A device that can simultaneously acquire a depth map and an image with one device may be used. In addition, the depth detector 22
Any device capable of detecting depth information for each pixel of an image captured by the cameras 220 and 230 can be used as the devices 1 and 231. Although FIG. 7 illustrates the case where depth maps viewed from two viewpoint positions are obtained, depth maps viewed from three or more viewpoint positions may be obtained.

【0050】〔第3の実施の形態〕次に,本発明の第3
の実施の形態について,図8を用いて説明する。図8
は,本実施の形態で用いるカメラ装置の構成を示す図で
ある。
[Third Embodiment] Next, a third embodiment of the present invention will be described.
The embodiment will be described with reference to FIG. FIG.
FIG. 1 is a diagram showing a configuration of a camera device used in the present embodiment.

【0051】本実施の形態では,カメラと液晶シャッタ
と偏向ビームスプリッタと鏡とを組み合わせることによ
り,1台のカメラで複数の視点位置から見た多視点画像
データを取得する。図8中,301はカメラ,302は
液晶シャッタ(TN),303は偏向ビームスプリッタ
(PBS),304は鏡,305は多視点画像データの
視点位置で,実際にはカメラが置かれていない位置を示
す。液晶シャッタ302は,電圧を加えた時はP偏向光
だけを通し,電圧を加えない時はS偏向光だけを通す。
偏向ビームスプリッタ303は,P偏向光を透過し,S
偏向光を反射するような素子である。
In the present embodiment, by combining a camera, a liquid crystal shutter, a deflecting beam splitter, and a mirror, one camera acquires multi-viewpoint image data viewed from a plurality of viewpoint positions. 8, 301 is a camera, 302 is a liquid crystal shutter (TN), 303 is a deflecting beam splitter (PBS), 304 is a mirror, 305 is a viewpoint position of multi-view image data, and a position where no camera is actually placed. Is shown. The liquid crystal shutter 302 passes only P-polarized light when a voltage is applied, and passes only S-polarized light when no voltage is applied.
The deflection beam splitter 303 transmits the P-polarized light,
It is an element that reflects polarized light.

【0052】まず,カメラ301を用いて,カメラ30
1の位置から見た画像データを取得する場合について説
明する。液晶シャッタ302に電圧を加え,P偏向光だ
けを通すようにする。そうすると,偏向ビームスプリッ
タ303の透過成分であるP偏向光だけがカメラ301
に入射し,その結果カメラ301の位置から見た画像デ
ータを取得することができる。
First, using the camera 301, the camera 30
The case where image data viewed from the position 1 is acquired will be described. A voltage is applied to the liquid crystal shutter 302 so that only the P-polarized light passes therethrough. Then, only the P-polarized light, which is the transmitted component of the deflection beam splitter 303, is
And as a result, image data viewed from the position of the camera 301 can be obtained.

【0053】次に,カメラ301を用いて,視点位置3
05から見た画像データを取得する場合について説明す
る。液晶シャッタ302の電圧を切り,S偏向光だけを
通すようにする。すると,偏向ビームスプリッタ303
の反射成分であるS偏向光だけがカメラ301に入射す
る。カメラ301に入射するS偏向光は鏡304により
反射されたものであるため,視点位置305から見た画
像データを取得することができる。
Next, using the camera 301, the viewpoint position 3
A case where the image data viewed from 05 is acquired will be described. The voltage of the liquid crystal shutter 302 is turned off so that only S-polarized light passes. Then, the deflection beam splitter 303
Only the S-polarized light, which is the reflection component of, enters the camera 301. Since the S-polarized light entering the camera 301 is reflected by the mirror 304, image data viewed from the viewpoint position 305 can be obtained.

【0054】[0054]

【実施例】次に,本発明の具体的な実施例について,図
9を用いて説明する。本実施例では,図9に示すよう
に,三次元位置が既知である2ヶ所の視点から見た奥行
き画像A,Bを用いて,一方の視点から見えないオクル
ージョン領域を他方の視点からの情報で補間して,仮想
視点から見た仮想視点奥行き画像を生成する。ここで2
枚の奥行き画像A,Bは,個々の画素の対応関係がとれ
ている必要はない。
Next, a specific embodiment of the present invention will be described with reference to FIG. In this embodiment, as shown in FIG. 9, depth images A and B viewed from two viewpoints whose three-dimensional positions are known are used to convert an occlusion area invisible from one viewpoint into information from the other viewpoint. To generate a virtual viewpoint depth image viewed from the virtual viewpoint. Where 2
It is not necessary for the depth images A and B to have a correspondence between individual pixels.

【0055】この仮想視点奥行き画像には,ノイズの影
響や奥行きが急激に変化する部分で,奥行きの値が決定
されない点がある。それらの点は,周囲の画素で線形補
間する。さらに,二次微分フィルタを用いて仮想視点奥
行き画像を平滑化処理し,処理後の仮想視点奥行き画像
に,実画像をテクスチャマッピングして仮想視点画像を
生成する。その際,視点位置の近い方の実画像を優先す
る。
This virtual viewpoint depth image has a point where the depth value is not determined in a portion where the influence of noise or the depth changes rapidly. These points are linearly interpolated with surrounding pixels. Further, the virtual viewpoint depth image is smoothed using a second derivative filter, and the real image is texture-mapped to the processed virtual viewpoint depth image to generate a virtual viewpoint image. At that time, the real image closer to the viewpoint is prioritized.

【0056】この方法の特徴は,2枚の奥行き画像をも
とに仮想視点から見た奥行き画像を生成し,これに処理
を加えて実画像をテクスチャマッピングすることで,元
の奥行き画像の精度が悪かったり,ノイズが多い場合で
も,滑らかな仮想視点画像を生成できるところにある。
The feature of this method is that a depth image viewed from a virtual viewpoint is generated based on two depth images, and processing is performed on the depth image to texture-map an actual image, thereby obtaining the accuracy of the original depth image. However, even if the image quality is bad or there is a lot of noise, a smooth virtual viewpoint image can be generated.

【0057】図10〜図16は,本実施例で用いた画像
を示す図である。図10および図11は実画像であり,
この2つの実画像の視点から見た奥行き画像を,図12
および図13に示す。奥行き画像は,1cm間隔でx軸
方向に移動するカメラで撮像した5枚の多視点画像をも
とに,多基線ステレオ法を用いて計算した。これらの奥
行き画像の図において,奥行き値は実際には濃度値の変
化で表されているが,本図では図面表記の都合上,奥行
き値(濃度値)が大きく変化する部分の輪郭を示してい
る。これら2枚の奥行き画像から,本発明の手法を用い
て生成した仮想視点奥行き画像が,図14に示す画像で
ある。図15は,図14に示す仮想視点奥行き画像に,
図10と図11の実画像をテクスチャマッピングして得
られた仮想視点画像である。
FIGS. 10 to 16 are diagrams showing images used in this embodiment. 10 and 11 are real images.
The depth image viewed from the viewpoint of these two real images is shown in FIG.
And FIG. The depth image was calculated using a multi-baseline stereo method based on five multi-view images captured by a camera moving in the x-axis direction at 1 cm intervals. In these depth image diagrams, the depth value is actually represented by a change in the density value. However, in this figure, the outline of the portion where the depth value (density value) greatly changes is shown for convenience of notation in the drawing. I have. A virtual viewpoint depth image generated by using the method of the present invention from these two depth images is the image shown in FIG. FIG. 15 shows the virtual viewpoint depth image shown in FIG.
12 is a virtual viewpoint image obtained by texture mapping the real images of FIGS. 10 and 11.

【0058】図16は,本発明による手法と従来の手法
との比較を示す図である。図16(A)に示すように,
本発明の手法による仮想視点画像では,奥行きが急激に
変化するような顔の輪郭部分のノイズが軽減され,図1
6(B)に示す従来の手法による仮想視点画像に比べ
て,鮮明な画像が得られている。また,仮想視点奥行き
画像を平滑化処理しているため,テクスチャマッピング
の際の仮想視点画像の解像度の低下も抑えられている。
FIG. 16 is a diagram showing a comparison between the method according to the present invention and the conventional method. As shown in FIG.
In the virtual viewpoint image according to the method of the present invention, noise at the face outline portion where the depth changes rapidly is reduced.
6 (B), a clearer image is obtained as compared with the virtual viewpoint image according to the conventional method. In addition, since the virtual viewpoint depth image is subjected to the smoothing process, a decrease in the resolution of the virtual viewpoint image during texture mapping is suppressed.

【0059】[0059]

【発明の効果】以上説明したように,本発明によれば,
与えられた視点位置に応じて,複数枚の画像とその奥行
き情報をもとに観察者から見た画像を再構成することに
より,視点位置を移動させた場合にそれに対応した画像
をスムーズに出力することができる。本手法では,奥行
き情報をもとに画像を再構成して仮想視点画像を生成す
るため,もととなる画像を撮像する位置の間隔が離れて
いる場合においても,滑らかな仮想視点画像を生成でき
る利点がある。装置に必要な記憶容量も,考えうる視点
移動に対応した画像をすべて保持する場合に比べて,極
めて少なくてすむ。処理速度については,三次元形状モ
デルにテクスチャをマッピングする手法に比べて,高速
化が可能である。滑らかに補正された仮想視点奥行きマ
ップに基づいて仮想視点画像を生成する手法であるた
め,滑らかな仮想視点画像を生成することが可能であ
る。
As described above, according to the present invention,
By reconstructing the image viewed from the observer based on a given viewpoint position and multiple images and its depth information, the image corresponding to the viewpoint position is output smoothly when the viewpoint position is moved. can do. In this method, a virtual viewpoint image is generated by reconstructing an image based on depth information, so that a smooth virtual viewpoint image is generated even when the distance between the positions at which the original image is captured is long. There are advantages that can be done. The storage capacity required for the device is extremely small as compared with the case where all images corresponding to conceivable viewpoint movements are held. The processing speed can be increased as compared with a method of mapping a texture on a three-dimensional shape model. Since this is a method of generating a virtual viewpoint image based on a smoothly corrected virtual viewpoint depth map, it is possible to generate a smooth virtual viewpoint image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態の仮想視点画像生成
装置の全体的な構成の概要を示す図である。
FIG. 1 is a diagram illustrating an outline of an overall configuration of a virtual viewpoint image generation device according to a first embodiment of the present invention.

【図2】第1の実施の形態における仮想視点画像生成装
置の処理の流れを説明するためのブロック図である。
FIG. 2 is a block diagram for explaining a processing flow of the virtual viewpoint image generation device according to the first embodiment.

【図3】多眼カメラシステムのカメラ配置と投影の概念
を説明するための図である。
FIG. 3 is a diagram for explaining the concept of camera arrangement and projection of the multi-lens camera system.

【図4】仮想視点奥行きマップ生成部で用いる座標変換
を説明するための図である。
FIG. 4 is a diagram for explaining coordinate conversion used in a virtual viewpoint depth map generation unit.

【図5】奥行きマップ補間処理部と奥行きマップ平滑化
処理部の処理を説明するための図である。
FIG. 5 is a diagram for explaining processing of a depth map interpolation processing unit and a depth map smoothing processing unit;

【図6】仮想視点画像再構成部で用いる座標変換を説明
するための図である。
FIG. 6 is a diagram for describing coordinate conversion used in a virtual viewpoint image reconstruction unit.

【図7】本発明の第2の実施の形態の仮想視点画像生成
装置の全体的な構成の概要を示す図である。
FIG. 7 is a diagram illustrating an outline of an overall configuration of a virtual viewpoint image generation device according to a second embodiment of the present invention.

【図8】本発明の第3の実施の形態で用いるカメラ装置
の構成を示す図である。
FIG. 8 is a diagram illustrating a configuration of a camera device used in a third embodiment of the present invention.

【図9】本発明の実施例の概要を説明するための図であ
る。
FIG. 9 is a diagram for explaining an outline of an embodiment of the present invention.

【図10】実画像の例を示す図である。FIG. 10 is a diagram illustrating an example of a real image.

【図11】実画像の例を示す図である。FIG. 11 is a diagram illustrating an example of a real image.

【図12】図10の実画像に対応する奥行き画像の例を
示す図である。
FIG. 12 is a diagram illustrating an example of a depth image corresponding to the real image in FIG. 10;

【図13】図11の実画像に対応する奥行き画像の例を
示す図である。
FIG. 13 is a diagram illustrating an example of a depth image corresponding to the real image in FIG. 11;

【図14】仮想視点奥行き画像の例を示す図である。FIG. 14 is a diagram illustrating an example of a virtual viewpoint depth image.

【図15】生成した仮想視点画像の例を示す図である。FIG. 15 is a diagram illustrating an example of a generated virtual viewpoint image.

【図16】本発明の手法による仮想視点画像と従来の手
法による仮想視点画像との比較を示す図である。
FIG. 16 is a diagram showing a comparison between a virtual viewpoint image according to the method of the present invention and a virtual viewpoint image according to a conventional method.

【図17】従来の技術を説明するための図である。FIG. 17 is a diagram for explaining a conventional technique.

【図18】従来の技術を説明するための図である。FIG. 18 is a diagram for explaining a conventional technique.

【図19】従来の技術を説明するための図である。FIG. 19 is a diagram for explaining a conventional technique.

【符号の説明】[Explanation of symbols]

10 被写体 20,30 カメラ装置 21〜24 カメラ 31〜34 カメラ 40 画像表示装置 41 表示スクリーン 100 仮想視点画像生成部 101 多視点画像入力部 102 奥行き検出部 103 視点位置指定部 104 奥行きマップ入力部 105 仮想視点位置入力部 106 カメラパラメータデータ入力部 107 仮想視点奥行きマップ生成部 108 奥行きマップ補間処理部 109 奥行きマップ平滑化処理部 110 仮想視点画像再構成部 111 画像表示部 Reference Signs List 10 subject 20, 30 camera device 21 to 24 camera 31 to 34 camera 40 image display device 41 display screen 100 virtual viewpoint image generation unit 101 multi viewpoint image input unit 102 depth detection unit 103 viewpoint position specification unit 104 depth map input unit 105 virtual Viewpoint position input unit 106 camera parameter data input unit 107 virtual viewpoint depth map generation unit 108 depth map interpolation processing unit 109 depth map smoothing processing unit 110 virtual viewpoint image reconstruction unit 111 image display unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中沢 憲二 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 上平 員丈 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 5B050 BA04 BA09 EA15 EA27 5B057 BA02 BA11 CA01 CA08 CA13 CA16 CB01 CB08 CB13 CB16 CE05 DB03 DB06 DB09 5C061 AA06 AA20 AA21 AB04 AB08 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Kenji Nakazawa 3-19-2 Nishi-Shinjuku, Shinjuku-ku, Tokyo Inside Japan Telegraph and Telephone Co., Ltd. No. 2 Nippon Telegraph and Telephone Corporation F-term (reference) 5B050 BA04 BA09 EA15 EA27 5B057 BA02 BA11 CA01 CA08 CA13 CA16 CB01 CB08 CB13 CB16 CE05 DB03 DB06 DB09 5C061 AA06 AA20 AA21 AB04 AB08

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 視点位置に応じた画像を生成するための
仮想視点画像生成方法において,それぞれ異なる位置を
視点とする複数の画像データを入力する過程と,前記多
視点画像データをもとに,多視点画像データの各画素に
ついて多視点画像データの視点位置から被写体までの奥
行き値を保持する奥行きマップを生成する過程と,前記
多視点奥行きマップの任意の1枚の奥行きマップをもと
に,三次元空間内での視点位置を座標変換することによ
り,実際にはカメラが置かれていない視点から見た仮想
視点奥行きマップを生成する過程と,前記仮想視点奥行
きマップについて,前記多視点奥行きマップの任意の1
枚の視点位置から見ると物体の影になって隠されている
オクルージョン領域の奥行き値を,そのオクルージョン
領域が隠されないような他の視点位置から見た別の多視
点奥行きマップのデータを採用することで補間処理する
過程と,前記処理された仮想視点奥行きマップ,もしく
はその仮想視点奥行きマップにおいて補間できない部分
があるときにその周囲の既知の奥行き値を用いて補間処
理した仮想視点奥行きマップ,またはさらに前記仮想視
点奥行きマップの奥行き値を平滑化処理した仮想視点奥
行きマップが持つ被写体の奥行きデータに基づいた視点
位置の三次元座標変換により,前記多視点画像データの
画素を並べ変えて,その輝度と色度を描画することによ
り,実際にはカメラが置かれていない視点から見た画像
を生成する過程とを有することを特徴とする仮想視点画
像生成方法。
1. A virtual viewpoint image generating method for generating an image corresponding to a viewpoint position, comprising the steps of: inputting a plurality of image data each having a viewpoint at a different position; Based on a process of generating a depth map that holds a depth value from the viewpoint position of the multi-view image data to a subject for each pixel of the multi-view image data, and any one depth map of the multi-view depth map, A process of generating a virtual viewpoint depth map viewed from a viewpoint where a camera is not actually placed by performing coordinate transformation of a viewpoint position in a three-dimensional space, and the multi-viewpoint depth map for the virtual viewpoint depth map. Any one of
The depth value of an occlusion area that is hidden as an object shadow when viewed from one viewpoint is used, and data of another multi-view depth map that is viewed from another viewpoint that does not hide the occlusion area is used. A virtual viewpoint depth map obtained by interpolating using the processed virtual viewpoint depth map or a known depth value around the virtual viewpoint depth map when there is a part that cannot be interpolated in the virtual viewpoint depth map, or Furthermore, the pixels of the multi-viewpoint image data are rearranged by three-dimensional coordinate conversion of the viewpoint position based on the depth data of the subject in the virtual viewpoint depth map obtained by smoothing the depth value of the virtual viewpoint depth map, and the brightness thereof is changed. And the process of generating an image viewed from the viewpoint where the camera is not actually placed by drawing Virtual viewpoint image generation method characterized by comprising.
【請求項2】 視点位置に応じた画像を生成するための
仮想視点画像生成装置において,それぞれ異なる位置を
視点とする複数の画像データを入力する多視点画像デー
タ入力手段と,前記多視点画像データをもとに,前記多
視点画像データの各画素についてカメラから被写体まで
の奥行き値を保持する奥行きマップを生成する多視点奥
行きマップ生成手段と,前記多視点奥行きマップの任意
の1枚の奥行きマップをもとに,三次元空間内での視点
位置を座標変換することにより,実際にはカメラが置か
れていない視点から見た仮想視点奥行きマップを生成す
る仮想視点奥行きマップ生成手段と,前記仮想視点奥行
きマップについて,前記多視点奥行きマップの任意の1
枚の視点位置から見ると物体の影になって隠されている
オクルージョン領域の奥行き値を,そのオクルージョン
領域が隠されないような他の視点位置から見た別の多視
点奥行きマップのデータを採用することで補間処理する
仮想視点奥行きマップ補正処理手段と,前記仮想視点奥
行きマップが持つ被写体の奥行き値に基づいて,前記多
視点画像データの画素を並べ変えてその輝度と色度を描
画することにより実際にはカメラが置かれていない視点
から見た画像を生成する仮想視点画像生成手段とを備え
ることを特徴とする仮想視点画像生成装置。
2. A virtual viewpoint image generating apparatus for generating an image corresponding to a viewpoint position, comprising: multi-view image data input means for inputting a plurality of image data having different positions as viewpoints; A multi-view depth map generating means for generating a depth map for holding a depth value from a camera to a subject for each pixel of the multi-view image data, and an arbitrary depth map of the multi-view depth map Virtual viewpoint depth map generating means for generating a virtual viewpoint depth map as viewed from a viewpoint where a camera is not actually placed by performing coordinate transformation of a viewpoint position in a three-dimensional space based on Regarding the viewpoint depth map, any one of the multi viewpoint depth maps
The depth value of an occlusion area that is hidden as a shadow of an object when viewed from one viewpoint is used, and data of another multi-view depth map that is viewed from another viewpoint that does not occlude the occlusion area is used. A virtual viewpoint depth map correction processing means for performing interpolation processing, and rearranging the pixels of the multi-viewpoint image data based on the depth value of the subject included in the virtual viewpoint depth map to draw the luminance and chromaticity thereof. A virtual viewpoint image generation device, comprising: virtual viewpoint image generation means for generating an image viewed from a viewpoint where a camera is not actually placed.
【請求項3】 請求項2記載の仮想視点画像生成装置に
おいて,前記仮想視点奥行きマップ補正処理手段は,前
記補間処理によっても補間できないオクルージョン領域
の奥行き値を,その周囲の奥行き値を用いて補間処理す
る手段,または/および前記補間処理された仮想視点奥
行きマップの奥行き値の分布が滑らかでない部分を平滑
化処理する手段を備えることを特徴とする仮想視点画像
生成装置。
3. The virtual viewpoint image generating apparatus according to claim 2, wherein the virtual viewpoint depth map correction processing means interpolates a depth value of an occlusion area that cannot be interpolated by the interpolation processing using a depth value around the occlusion area. A virtual viewpoint image generating apparatus, comprising: means for processing; and / or means for performing smoothing processing on a portion where the distribution of depth values of the interpolated virtual viewpoint depth map is not smooth.
【請求項4】 請求項2または請求項3記載の仮想視点
画像生成装置において,前記多視点奥行きマップ生成手
段は,前記多視点画像データ間の対応点を抽出してステ
レオ法により三角測量の原理を用いて受動的に奥行きを
推定することによって奥行きマップを生成することを特
徴とする仮想視点画像生成装置。
4. A virtual viewpoint image generating apparatus according to claim 2, wherein said multi-viewpoint depth map generating means extracts a corresponding point between said multi-viewpoint image data and performs triangulation by a stereo method. A virtual viewpoint image generation apparatus characterized in that a depth map is generated by passively estimating a depth by using a depth map.
【請求項5】 請求項2または請求項3記載の仮想視点
画像生成装置において,前記多視点奥行きマップ生成手
段は,レーザ光による画像パターンを被写体に照射する
ことにより能動的に奥行きを推定することによって奥行
きマップを生成することを特徴とする仮想視点画像生成
装置。
5. The virtual viewpoint image generation device according to claim 2, wherein the multi-viewpoint depth map generation means actively estimates the depth by irradiating an image pattern with a laser beam to a subject. A virtual viewpoint image generation apparatus, wherein a depth map is generated by the method.
【請求項6】 請求項2,請求項3,請求項4または請
求項5記載の仮想視点画像生成装置において,前記多視
点画像データ入力手段は,複数の視点位置に対応する光
路上に光の一部または全部を反射または透過する複数の
光学的手段が配置され,その光学的手段によって反射ま
たは透過された光が通る光路上の一つに1台のカメラが
配置されたものによって構成され,前記1台のカメラで
複数の視点位置における画像データを取得するものであ
ることを特徴とする仮想視点画像生成装置。
6. The virtual viewpoint image generating apparatus according to claim 2, wherein said multi-viewpoint image data inputting means includes a light-emitting device on a light path corresponding to a plurality of viewpoint positions. A plurality of optical means for partially or entirely reflecting or transmitting the light, and one camera being disposed on one of the optical paths through which the light reflected or transmitted by the optical means passes; A virtual viewpoint image generation apparatus, wherein the one camera acquires image data at a plurality of viewpoint positions.
JP01256299A 1999-01-21 1999-01-21 Method and apparatus for generating virtual viewpoint image Expired - Fee Related JP3593466B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01256299A JP3593466B2 (en) 1999-01-21 1999-01-21 Method and apparatus for generating virtual viewpoint image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01256299A JP3593466B2 (en) 1999-01-21 1999-01-21 Method and apparatus for generating virtual viewpoint image

Publications (2)

Publication Number Publication Date
JP2000215311A true JP2000215311A (en) 2000-08-04
JP3593466B2 JP3593466B2 (en) 2004-11-24

Family

ID=11808797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01256299A Expired - Fee Related JP3593466B2 (en) 1999-01-21 1999-01-21 Method and apparatus for generating virtual viewpoint image

Country Status (1)

Country Link
JP (1) JP3593466B2 (en)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262156A (en) * 2000-12-26 2002-09-13 Matsushita Electric Ind Co Ltd Camera, camera system and image processing method
JP2003107603A (en) * 2001-09-28 2003-04-09 Namco Ltd Stereophonic image generating device, stereophonic image generation information and information storage medium
JP2003256874A (en) * 2002-03-04 2003-09-12 Matsushita Electric Ind Co Ltd Image synthesis and conversion device
KR100433625B1 (en) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 Apparatus for reconstructing multiview image using stereo image and depth map
JP2005149127A (en) * 2003-11-14 2005-06-09 Sony Corp Imaging display device and method, and image sending and receiving system
JP2006039770A (en) * 2004-07-23 2006-02-09 Sony Corp Image processing apparatus, method, and program
JP2006091011A (en) * 2004-09-16 2006-04-06 Sharp Corp Multi-view parallax display
JP2006285415A (en) * 2005-03-31 2006-10-19 Sony Corp Image processing method, device and program
JP2007026071A (en) * 2005-07-15 2007-02-01 Matsushita Electric Ind Co Ltd Image synthesizing apparatus and method
JP2007159112A (en) * 2005-11-30 2007-06-21 Mitsubishi Electric Research Laboratories Inc Method and system for synthesizing multiview video
US7538774B2 (en) 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP2009164865A (en) * 2008-01-07 2009-07-23 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding apparatus, video decoding apparatus, programs therefor and computer-readable recording medium
JP2009172122A (en) * 2008-01-24 2009-08-06 Brother Ind Ltd Sewing machine
JP2009186369A (en) * 2008-02-07 2009-08-20 Nippon Telegr & Teleph Corp <Ntt> Depth information acquisition method, depth information acquiring device, program, and recording medium
JP2009212664A (en) * 2008-03-03 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> Encoding method, decoding method, encoding device, decoding device, encoding program and decoding program, of distance information, and computer readable recording medium
JP2009211335A (en) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and recording medium from which same recorded program can be read by computer
JP2009296338A (en) * 2008-06-05 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Multi-viewpoint distance information encoding method, decoding method, encoder, decoder, encoding program, decoding program, and computer readable recording medium
JP2010503078A (en) * 2006-08-30 2010-01-28 ピクトメトリー インターナショナル コーポレーション Mosaic diagonal image and method of creating and using mosaic diagonal image
JP2010079506A (en) * 2008-09-25 2010-04-08 Kddi Corp Image generating apparatus, method, communication system, and program
JP2010079505A (en) * 2008-09-25 2010-04-08 Kddi Corp Image generating apparatus and program
JP2011004396A (en) * 2009-06-16 2011-01-06 Samsung Electronics Co Ltd Conversion device and method for converting two-dimensional image into three-dimensional image
US7957581B2 (en) 2003-11-27 2011-06-07 Sony Corporation Image processing apparatus and method
JP2011522300A (en) * 2007-12-27 2011-07-28 サーブ アクティエボラーグ Method for displaying virtual images
WO2011142239A1 (en) * 2010-05-13 2011-11-17 ソニー株式会社 Image processing device and image processing method
KR20110139189A (en) * 2009-03-19 2011-12-28 엘지전자 주식회사 Method for processing three dimensional (3d) video signal and digital broadcast receiver for performing the processing method
JP2012500564A (en) * 2008-08-20 2012-01-05 トムソン ライセンシング Sophisticated depth map
WO2011155697A3 (en) * 2010-06-08 2012-02-02 에스케이텔레콤 주식회사 Method and device for converting three-dimensional image using depth map information
WO2012063540A1 (en) * 2010-11-12 2012-05-18 シャープ株式会社 Virtual viewpoint image generating device
JP2012128884A (en) * 2012-03-22 2012-07-05 Nippon Telegr & Teleph Corp <Ntt> Virtual viewpoint image generation method, virtual viewpoint image generation device, and virtual viewpoint image generation program
JP2012213207A (en) * 2012-06-18 2012-11-01 Nippon Telegr & Teleph Corp <Ntt> Multi-viewpoint image encoding method and decoding method, encoder, decoder, encoding program, decoding program and computer readable recording medium
JP2013005289A (en) * 2011-06-17 2013-01-07 Sony Corp Image processing device and method and program
JP2013520890A (en) * 2010-02-25 2013-06-06 エクスパート トロイハンド ゲーエムベーハー Method for visualizing 3D image on 3D display device and 3D display device
WO2013089183A1 (en) * 2011-12-15 2013-06-20 シャープ株式会社 Image processing device, image processing method, computer program, recording medium, and stereoscopic image display device
JP2013143702A (en) * 2012-01-11 2013-07-22 Sharp Corp Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
KR20140000315A (en) * 2011-01-31 2014-01-02 마이크로소프트 코포레이션 Mobile camera localization using depth maps
KR101367284B1 (en) 2008-01-28 2014-02-26 삼성전자주식회사 Method and apparatus of inpainting image according to change of viewpoint
JP2014056466A (en) * 2012-09-13 2014-03-27 Canon Inc Image processing device and method
WO2014050830A1 (en) * 2012-09-25 2014-04-03 日本電信電話株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
WO2014050827A1 (en) * 2012-09-25 2014-04-03 日本電信電話株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JP2014140158A (en) * 2012-12-20 2014-07-31 Ricoh Co Ltd Occlusion-aware reconstruction of three-dimensional scene from light field image
WO2014196374A1 (en) * 2013-06-05 2014-12-11 ソニー株式会社 Image processing device and image processing method
US8913105B2 (en) 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
JP2014534656A (en) * 2011-09-12 2014-12-18 インテル・コーポレーション Generation of 3D perception from 2D images using motion parallax
JP2015091136A (en) * 2013-11-05 2015-05-11 三星電子株式会社Samsung Electronics Co.,Ltd. Method and apparatus for image processing
WO2015178217A1 (en) * 2014-05-21 2015-11-26 ソニー株式会社 Image processing apparatus and method
CN105184780A (en) * 2015-08-26 2015-12-23 京东方科技集团股份有限公司 Prediction method and system for stereoscopic vision depth
JP2018186528A (en) * 2011-03-18 2018-11-22 ソニー株式会社 Image processing system and image processing method
EP3442225A1 (en) 2017-08-10 2019-02-13 Canon Kabushiki Kaisha Image processing apparatus and method
KR20200072338A (en) * 2018-12-12 2020-06-22 서울과학기술대학교 산학협력단 Apparatus and method for composing video data
JP2020525902A (en) * 2017-06-29 2020-08-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus and method for generating an image
JP7387202B2 (en) 2020-01-16 2023-11-28 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 3D face model generation method, apparatus, computer device and computer program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791774A (en) * 2017-01-17 2017-05-31 湖南优象科技有限公司 Virtual visual point image generating method based on depth map
CN107911629B (en) * 2017-11-03 2019-12-24 浙江大华技术股份有限公司 Brightness adjusting method and device

Cited By (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262156A (en) * 2000-12-26 2002-09-13 Matsushita Electric Ind Co Ltd Camera, camera system and image processing method
JP2003107603A (en) * 2001-09-28 2003-04-09 Namco Ltd Stereophonic image generating device, stereophonic image generation information and information storage medium
KR100433625B1 (en) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 Apparatus for reconstructing multiview image using stereo image and depth map
US7538798B2 (en) 2002-03-04 2009-05-26 Panasonic Corporation Image combination/conversion apparatus
JP2003256874A (en) * 2002-03-04 2003-09-12 Matsushita Electric Ind Co Ltd Image synthesis and conversion device
US7538774B2 (en) 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP2005149127A (en) * 2003-11-14 2005-06-09 Sony Corp Imaging display device and method, and image sending and receiving system
JP4595313B2 (en) * 2003-11-14 2010-12-08 ソニー株式会社 Imaging display apparatus and method, and image transmission / reception system
KR101091297B1 (en) 2003-11-27 2011-12-07 소니 주식회사 Image processing apparatus, and method of the same
US7957581B2 (en) 2003-11-27 2011-06-07 Sony Corporation Image processing apparatus and method
JP2006039770A (en) * 2004-07-23 2006-02-09 Sony Corp Image processing apparatus, method, and program
JP4586447B2 (en) * 2004-07-23 2010-11-24 ソニー株式会社 Image processing apparatus and method, and program
JP2006091011A (en) * 2004-09-16 2006-04-06 Sharp Corp Multi-view parallax display
JP2006285415A (en) * 2005-03-31 2006-10-19 Sony Corp Image processing method, device and program
JP4617965B2 (en) * 2005-03-31 2011-01-26 ソニー株式会社 Image processing method, apparatus and program
JP2007026071A (en) * 2005-07-15 2007-02-01 Matsushita Electric Ind Co Ltd Image synthesizing apparatus and method
JP4727329B2 (en) * 2005-07-15 2011-07-20 パナソニック株式会社 Image composition apparatus and image composition method
JP2007159112A (en) * 2005-11-30 2007-06-21 Mitsubishi Electric Research Laboratories Inc Method and system for synthesizing multiview video
US10489953B2 (en) 2006-08-30 2019-11-26 Pictometry International Corp. Mosaic oblique images and methods of making and using same
US11080911B2 (en) 2006-08-30 2021-08-03 Pictometry International Corp. Mosaic oblique images and systems and methods of making and using same
JP2010503078A (en) * 2006-08-30 2010-01-28 ピクトメトリー インターナショナル コーポレーション Mosaic diagonal image and method of creating and using mosaic diagonal image
US9437029B2 (en) 2006-08-30 2016-09-06 Pictometry International Corp. Mosaic oblique images and methods of making and using same
US9805489B2 (en) 2006-08-30 2017-10-31 Pictometry International Corp. Mosaic oblique images and methods of making and using same
US9959653B2 (en) 2006-08-30 2018-05-01 Pictometry International Corporation Mosaic oblique images and methods of making and using same
US9338423B2 (en) 2007-12-27 2016-05-10 Saab Ab Method for displaying a virtual image
JP2011522300A (en) * 2007-12-27 2011-07-28 サーブ アクティエボラーグ Method for displaying virtual images
JP2009164865A (en) * 2008-01-07 2009-07-23 Nippon Telegr & Teleph Corp <Ntt> Video coding method, video decoding method, video coding apparatus, video decoding apparatus, programs therefor and computer-readable recording medium
US8267024B2 (en) 2008-01-24 2012-09-18 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
JP2009172122A (en) * 2008-01-24 2009-08-06 Brother Ind Ltd Sewing machine
KR101367284B1 (en) 2008-01-28 2014-02-26 삼성전자주식회사 Method and apparatus of inpainting image according to change of viewpoint
JP2009186369A (en) * 2008-02-07 2009-08-20 Nippon Telegr & Teleph Corp <Ntt> Depth information acquisition method, depth information acquiring device, program, and recording medium
JP2009212664A (en) * 2008-03-03 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> Encoding method, decoding method, encoding device, decoding device, encoding program and decoding program, of distance information, and computer readable recording medium
JP2009211335A (en) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> Virtual viewpoint image generation method, virtual viewpoint image generation apparatus, virtual viewpoint image generation program, and recording medium from which same recorded program can be read by computer
JP2009296338A (en) * 2008-06-05 2009-12-17 Nippon Telegr & Teleph Corp <Ntt> Multi-viewpoint distance information encoding method, decoding method, encoder, decoder, encoding program, decoding program, and computer readable recording medium
US9179153B2 (en) 2008-08-20 2015-11-03 Thomson Licensing Refined depth map
JP2012500564A (en) * 2008-08-20 2012-01-05 トムソン ライセンシング Sophisticated depth map
JP2010079506A (en) * 2008-09-25 2010-04-08 Kddi Corp Image generating apparatus, method, communication system, and program
JP2010079505A (en) * 2008-09-25 2010-04-08 Kddi Corp Image generating apparatus and program
US8913105B2 (en) 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
KR101672283B1 (en) * 2009-03-19 2016-11-03 엘지전자 주식회사 Method for processing three dimensional (3d) video signal and digital broadcast receiver for performing the processing method
KR20110139189A (en) * 2009-03-19 2011-12-28 엘지전자 주식회사 Method for processing three dimensional (3d) video signal and digital broadcast receiver for performing the processing method
US9491434B2 (en) 2009-03-19 2016-11-08 Lg Electronics Inc. Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method
US9215446B2 (en) 2009-03-19 2015-12-15 Lg Electronics Inc. Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the method
JP2011004396A (en) * 2009-06-16 2011-01-06 Samsung Electronics Co Ltd Conversion device and method for converting two-dimensional image into three-dimensional image
JP2013520890A (en) * 2010-02-25 2013-06-06 エクスパート トロイハンド ゲーエムベーハー Method for visualizing 3D image on 3D display device and 3D display device
CN102934450A (en) * 2010-05-13 2013-02-13 索尼公司 Image processing device and image processing method
WO2011142239A1 (en) * 2010-05-13 2011-11-17 ソニー株式会社 Image processing device and image processing method
WO2011155697A3 (en) * 2010-06-08 2012-02-02 에스케이텔레콤 주식회사 Method and device for converting three-dimensional image using depth map information
WO2012063540A1 (en) * 2010-11-12 2012-05-18 シャープ株式会社 Virtual viewpoint image generating device
KR20140000315A (en) * 2011-01-31 2014-01-02 마이크로소프트 코포레이션 Mobile camera localization using depth maps
KR101896131B1 (en) 2011-01-31 2018-09-07 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Mobile camera localization using depth maps
US10389997B2 (en) 2011-03-18 2019-08-20 Sony Corporation Image processing apparatus and image processing method
JP2018186528A (en) * 2011-03-18 2018-11-22 ソニー株式会社 Image processing system and image processing method
JP2013005289A (en) * 2011-06-17 2013-01-07 Sony Corp Image processing device and method and program
JP2014534656A (en) * 2011-09-12 2014-12-18 インテル・コーポレーション Generation of 3D perception from 2D images using motion parallax
WO2013089183A1 (en) * 2011-12-15 2013-06-20 シャープ株式会社 Image processing device, image processing method, computer program, recording medium, and stereoscopic image display device
JP2013143702A (en) * 2012-01-11 2013-07-22 Sharp Corp Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
JP2012128884A (en) * 2012-03-22 2012-07-05 Nippon Telegr & Teleph Corp <Ntt> Virtual viewpoint image generation method, virtual viewpoint image generation device, and virtual viewpoint image generation program
JP2012213207A (en) * 2012-06-18 2012-11-01 Nippon Telegr & Teleph Corp <Ntt> Multi-viewpoint image encoding method and decoding method, encoder, decoder, encoding program, decoding program and computer readable recording medium
JP2014056466A (en) * 2012-09-13 2014-03-27 Canon Inc Image processing device and method
JP5883153B2 (en) * 2012-09-25 2016-03-09 日本電信電話株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
WO2014050827A1 (en) * 2012-09-25 2014-04-03 日本電信電話株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JP5934375B2 (en) * 2012-09-25 2016-06-15 日本電信電話株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
WO2014050830A1 (en) * 2012-09-25 2014-04-03 日本電信電話株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
CN104662897A (en) * 2012-09-25 2015-05-27 日本电信电话株式会社 Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program, and recording medium
JP2014140158A (en) * 2012-12-20 2014-07-31 Ricoh Co Ltd Occlusion-aware reconstruction of three-dimensional scene from light field image
US10027947B2 (en) 2013-06-05 2018-07-17 Sony Corporation Image processing apparatus and image processing method
WO2014196374A1 (en) * 2013-06-05 2014-12-11 ソニー株式会社 Image processing device and image processing method
JPWO2014196374A1 (en) * 2013-06-05 2017-02-23 ソニー株式会社 Image processing apparatus and image processing method
JP2015091136A (en) * 2013-11-05 2015-05-11 三星電子株式会社Samsung Electronics Co.,Ltd. Method and apparatus for image processing
US9646399B2 (en) 2013-11-05 2017-05-09 Samsung Electronics Co., Ltd. Method and apparatus for image processing
JPWO2015178217A1 (en) * 2014-05-21 2017-04-20 ソニー株式会社 Image processing apparatus and method
US10547822B2 (en) 2014-05-21 2020-01-28 Sony Corporation Image processing apparatus and method to generate high-definition viewpoint interpolation image
WO2015178217A1 (en) * 2014-05-21 2015-11-26 ソニー株式会社 Image processing apparatus and method
CN105184780A (en) * 2015-08-26 2015-12-23 京东方科技集团股份有限公司 Prediction method and system for stereoscopic vision depth
CN105184780B (en) * 2015-08-26 2018-06-05 京东方科技集团股份有限公司 A kind of Forecasting Methodology and system of stereoscopic vision depth
US9936189B2 (en) 2015-08-26 2018-04-03 Boe Technology Group Co., Ltd. Method for predicting stereoscopic depth and apparatus thereof
JP2020525902A (en) * 2017-06-29 2020-08-27 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus and method for generating an image
JP7075950B2 (en) 2017-06-29 2022-05-26 コーニンクレッカ フィリップス エヌ ヴェ Devices and methods for generating images
EP3442225A1 (en) 2017-08-10 2019-02-13 Canon Kabushiki Kaisha Image processing apparatus and method
US10872462B2 (en) 2017-08-10 2020-12-22 Canon Kabushiki Kaisha Image processing apparatus, method, and non-transitory computer-readable medium for rendering a virtual viewpoint image
KR20200072338A (en) * 2018-12-12 2020-06-22 서울과학기술대학교 산학협력단 Apparatus and method for composing video data
KR102129085B1 (en) * 2018-12-12 2020-07-01 서울과학기술대학교 산학협력단 Apparatus and method for composing video data
JP7387202B2 (en) 2020-01-16 2023-11-28 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 3D face model generation method, apparatus, computer device and computer program

Also Published As

Publication number Publication date
JP3593466B2 (en) 2004-11-24

Similar Documents

Publication Publication Date Title
JP2000215311A (en) Method and device for generating virtual viewpoint image
JP3745117B2 (en) Image processing apparatus and image processing method
US6573912B1 (en) Internet system for virtual telepresence
US20020106120A1 (en) Method of analyzing in real time the correspondence of image characteristics in corresponding video images
US20080246757A1 (en) 3D Image Generation and Display System
JP3524147B2 (en) 3D image display device
JPH08331607A (en) Three-dimensional display image generating method
JP3561446B2 (en) Image generation method and apparatus
US8577202B2 (en) Method for processing a video data set
KR20190062102A (en) Method and apparatus for operating 2d/3d augument reality technology
JP7326442B2 (en) Parallax estimation from wide-angle images
KR20080034419A (en) 3d image generation and display system
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
JPH09245195A (en) Image processing method and its device
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
JP2001256482A (en) Device and method for generating parallax image
JPH0981746A (en) Two-dimensional display image generating method
Xiao et al. From Images to Video: View Morphing of Three Images.
Knorr et al. From 2D-to stereo-to multi-view video
CN104463958A (en) Three-dimensional super-resolution method based on disparity map fusing
JP3122629B2 (en) Arbitrary viewpoint image generation device
Redert et al. 3-D scene reconstruction with viewpoint adaptation on stereo displays
Shimamura et al. Construction and presentation of a virtual environment using panoramic stereo images of a real scene and computer graphics models
Bajcsy et al. 3D reconstruction of environments for virtual collaboration
Chang et al. Arbitrary view generation for three-dimensional scenes from uncalibrated video cameras

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040830

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees