JP3387900B2 - Image processing method and apparatus - Google Patents

Image processing method and apparatus

Info

Publication number
JP3387900B2
JP3387900B2 JP2000280697A JP2000280697A JP3387900B2 JP 3387900 B2 JP3387900 B2 JP 3387900B2 JP 2000280697 A JP2000280697 A JP 2000280697A JP 2000280697 A JP2000280697 A JP 2000280697A JP 3387900 B2 JP3387900 B2 JP 3387900B2
Authority
JP
Japan
Prior art keywords
image
images
interpolation
pixel
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000280697A
Other languages
Japanese (ja)
Other versions
JP2002092597A (en
Inventor
隆明 遠藤
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2000280697A priority Critical patent/JP3387900B2/en
Publication of JP2002092597A publication Critical patent/JP2002092597A/en
Application granted granted Critical
Publication of JP3387900B2 publication Critical patent/JP3387900B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、既存の画像からユ
ーザの視点位置での画像を補間して生成する画像処理装
置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method for interpolating and generating an image at a user's viewpoint position from an existing image.

【0002】[0002]

【従来の技術】レンズ中心が一致した全天周画像は、蓄
積再生テレプレゼンス方式の複合現実感システムにおけ
るデータ形式として有効であり、さまざまな試みがなさ
れている。
2. Description of the Related Art A omnidirectional image in which lens centers coincide with each other is effective as a data format in a storage / replay telepresence mixed reality system, and various attempts have been made.

【0003】その例を示せば、次のとおりである。例え
ば、 (1)「移動車輌搭載カメラを用いた電脳映像都市空間
の構築(2)−実写画像を用いた広域仮想空間の生成−
(日本バーチャルリアリティ学会第2回大会論文集、pp
67-70,1997(廣瀬、渡辺、谷川、遠藤、片山、田村))
では、自動車の屋根上に複数台のビデオカメラを水平全
周方向に向けて放射状に配置した撮影システムを提案し
ている。 (2)http://www.imoveinc.comにおいて紹介されてい
るiMove Spherical Videoでは、複数台のカメラを用い
て全天周を同時刻に撮影することが示されている。 (3)Chen S.E.によるQuickTime VR(An Image-Based
Approach to Virtual Environment Navigation, Proc.
SIGGRAPH'95, pp.29-38, 1995)では、ある一点から全
周方向を自由に見回すことを可能としている。 (4)「六角錐ミラーを用いた全方位ステレオ画像セン
サによる高解像度ステレオパノラマ動画像の作成(信学
技法PRMU97-118, 1997(川西、山澤、岩佐、竹村、横
矢))」や、「光線情報による3次元実空間の効率的記
録へ向けた光線空間射影法(信学技法IE95-119, 1996
(苗村、柳澤、金子、原島))」には、1台のカメラと
回転双曲面ミラーを使用するか、複数台のカメラと多角
錐ミラーを使用すれば、レンズ中心が一致した全周画像
を同時刻に撮影することができることが示されている。
The example is as follows. For example, (1) "Construction of a cyber visual city space using a camera mounted on a moving vehicle (2) -Generation of a wide-area virtual space using a real image-
(Proceedings of the 2nd Annual Meeting of the Virtual Reality Society of Japan, pp
67-70,1997 (Hirose, Watanabe, Tanigawa, Endo, Katayama, Tamura)
Proposes an imaging system in which a plurality of video cameras are radially arranged on the roof of an automobile in the horizontal direction. (2) In the iMove Spherical Video introduced at http://www.imoveinc.com, it is shown that the entire sky circumference is shot at the same time using multiple cameras. (3) QuickTime VR (An Image-Based by Chen SE
Approach to Virtual Environment Navigation, Proc.
SIGGRAPH'95, pp.29-38, 1995) makes it possible to freely look around all directions from a certain point. (4) "Creation of high-resolution stereo panoramic video image by omnidirectional stereo image sensor using hexagonal pyramid mirror (Public technique PRMU97-118, 1997 (Kawanishi, Yamazawa, Iwasa, Takemura, Yokoya))" and "Ray Ray space projection method for efficient recording of three-dimensional real space by information (Bidding Technique IE95-119, 1996
(Naemura, Yanagisawa, Kaneko, Harashima)) ", if you use one camera and a rotating hyperboloidal mirror, or if you use multiple cameras and a polygonal pyramid mirror, you can get a full-circle image with the same lens center. It is shown that the images can be taken at the same time.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、カメラ
や撮影機材には物理的な大きさがあるため、ある一点か
らの全天周画像を同時刻に撮影することは不可能であ
る。
However, since the camera and the photographing equipment have a physical size, it is impossible to photograph the whole sky image from a certain point at the same time.

【0005】例えば、上記(1)では、各カメラのレン
ズ中心を一致させることはできておらず、また、全天周
に対応するものでもない。また、上記(2)において
も、複数のカメラのレンズ中心を一致させることはでき
ていない。また、上記(3)では、ある一点からの全周
画像は1台のカメラを回転させて順次撮影した画像から
合成されるものであり、同時刻の画像を生成することは
できない。更に、上記(4)にあげられた手法を拡張し
て、全天周の撮影に対応することは物理的に不可能であ
る。
For example, in the above (1), the lens centers of the cameras cannot be made to coincide with each other, and the camera does not correspond to the entire circumference. Also, in the above (2), the lens centers of a plurality of cameras cannot be matched. Further, in the above (3), the omnidirectional image from a certain point is composed from images sequentially shot by rotating one camera, and images at the same time cannot be generated. Furthermore, it is physically impossible to extend the method described in (4) above to support imaging of the entire sky.

【0006】本発明は上記の問題に鑑みてなされたもの
であり、全天周方向に向けて配置した、物理的に配置可
能な台数のカメラから得られた複数の画像に基づいて全
天周画像を補間生成することを可能とすることを目的と
する特に、離散的に配置されたカメラで撮影された複
数の画像から所望の視点位置及び視線方向の画像を求め
ることができるようにすることを目的とする。
The present invention has been made in view of the above problem, and based on a plurality of images obtained from a physically arrangable number of cameras arranged in the direction of the whole sky, The purpose is to be able to interpolate images
To do . In particular, the multiple images taken by the cameras arranged discretely
Image of desired viewpoint position and line-of-sight direction is obtained from several images
The purpose is to be able to.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めの本発明による画像処理装置は例えば以下の構成を備
える。すなわち、離散的に配置されたカメラで撮影され
複数の画像に基づいて所望の視点位置及び視線方向の
補間画像を生成する画像処理装置であって、任意の視点
位置及び視線方向情報を入力する入力手段と、前記複数
の画像の各々を撮影したカメラのレンズ中心を頂点とす
る多面体を構成する平面のうち、前記入力手段で入力さ
れた視点位置と前記補間画像中の注目画素を結ぶ光線と
の交点を有する平面を抽出する抽出手段と、前記抽出手
段で抽出された平面の頂点をレンズ中心とする複数の画
像に基づいて、前記交点を視点位置とする仮想画像を補
間生成する補間手段と、前記仮想画像から前記注目画素
に対応する画素を取得して、これを用いて当該注目画素
を描画する描画手段と、前記補間画像中の画素の各々に
関して、前記抽出手段と前記補間手段と前記描画手段を
繰り返すことにより、前記入力手段で入力された視点位
置及び視線方向情報に応じた前記補間画像を生成する生
成手段とを備える。
An image processing apparatus according to the present invention for achieving the above object has, for example, the following configuration. That is, the images are taken by the cameras arranged discretely.
An image processing apparatus for generating an interpolated image of a desired viewpoint position and viewing direction based on a plurality of images, an arbitrary viewpoint
Of the input means for inputting position and line-of-sight direction information and the plane forming a polyhedron having the lens center of the camera that has photographed each of the plurality of images as the vertex, the input means is used.
Based on a plurality of images having a lens center at the apex of the plane extracted by the extracting means, and an extracting means for extracting a plane having an intersection between a viewpoint position and a ray connecting the target pixel in the interpolation image, Interpolation means for interpolating and generating a virtual image having the intersection point as a viewpoint position; drawing means for acquiring a pixel corresponding to the pixel of interest from the virtual image and drawing the pixel of interest using the pixel; and the interpolation image for each of the in pixels, said by extracting means and said interpolation means and said drawing means <br/> repeating Succoth, viewpoint position input by the input means
And a generation means for generating the interpolation image according to the position and the line-of-sight direction information .

【0008】また、上記の目的を達成するための本発明
による画像処理方法は例えば以下の工程を備える。すな
わち、離散的に配置されたカメラで撮影された複数の画
像に基づいて所望の視点位置及び視線方向の補間画像を
生成する画像処理方法であって、任意の視点位置及び視
線方向情報を入力する入力工程と、前記複数の画像の各
々を撮影したカメラのレンズ中心を頂点とする多面体を
構成する平面のうち、前記入力工程で入力された視点位
置と前記補間画像中の注目画素を結ぶ光線との交点を有
する平面を抽出する抽出工程と、前記抽出工程で抽出さ
れた平面の頂点をレンズ中心とする複数の画像に基づい
て、前記交点を視点位置とする仮想画像を補間生成する
補間工程と、前記仮想画像から前記注目画素に対応する
画素を取得して、これを用いて当該注目画素を描画する
描画工程と、前記補間画像中の画素の各々に関して、前
記抽出工程と前記補間工程と前記描画工程を繰り返すこ
とにより、前記入力手段で入力された視点位置及び視線
方向情報に応じた前記補間画像を生成する生成工程とを
備える。
Further, the image processing method according to the present invention for achieving the above object includes, for example, the following steps. That is, it is an image processing method for generating an interpolated image of a desired viewpoint position and a line-of-sight direction based on a plurality of images captured by discretely arranged cameras , and an arbitrary viewpoint position and
Among the input step of inputting the line direction information and the planes forming the polyhedron whose vertex is the lens center of the camera that has captured each of the plurality of images, the viewpoint position input in the input step
Position and an extraction step of extracting a plane having an intersection of a ray connecting the pixel of interest in the interpolated image, based on a plurality of images with the vertex of the plane extracted in the extraction step as the lens center, An interpolation step of interpolating and generating a virtual image as a viewpoint position, a drawing step of acquiring a pixel corresponding to the target pixel from the virtual image, and drawing the target pixel using the pixel, and a pixel in the interpolation image for each, score Repeat the extraction step and the interpolation step and the drawing step
And the viewpoint position and line of sight input by the input means
And a generation step of generating the interpolation image according to the direction information .

【0009】[0009]

【発明の実施の形態】以下、添付の図面を参照して本発
明の好適な実施形態を説明する。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.

【0010】[システムの概要と原理]カメラのレンズ
中心が一致した全天周画像を撮影することができなくて
も、後処理で再構成することができればよい。したがっ
て、本実施形態では、少数のカメラで撮影した画像を基
に、膨大な量の画像を補間生成することを可能とし、全
天周画像を補間生成可能とするものである。
[Outline and Principle of System] Even if it is not possible to capture an all-round image in which the lens centers of the cameras are coincident with each other, it is sufficient that the images can be reconstructed by post-processing. Therefore, in the present embodiment, it is possible to interpolate and generate a vast amount of images based on the images captured by a small number of cameras, and to interpolate and generate all-sky images.

【0011】画像を構成する各画素は、カメラのレンズ
中心に飛来する一本の光線を記録したものである。した
がって、画像とはカメラのレンズ中心に飛来する光線群
を記録したものであると考えることができる。ここで、
各光線が飛来の途中で減衰せずに直進すると仮定する
と、光線の飛来系路上のどの位置にカメラを置いてもそ
の光線の色を観察できることになる。したがって、生成
したい画像をIeとし、その視点位置をeとすると、画
像Ieの画素数と同数のカメラを用意して、それらを視
点位置eから離間した位置に配置し、各カメラで一本ず
つ適切な光線を記録しておけば、視点位置eに物理的に
カメラを置かなくても、図1に示すようにIeを再構成
できることになる。
Each pixel forming an image is a recording of one ray of light that has come to the center of the lens of the camera. Therefore, it can be considered that the image is a record of light rays that fly to the center of the lens of the camera. here,
Assuming that each ray goes straight without being attenuated during the flight, the color of the ray can be observed at any position on the flight path of the ray. Therefore, assuming that the image to be generated is I e and the viewpoint position thereof is e, the same number of cameras as the number of pixels of the image I e are prepared, and the cameras are arranged at positions apart from the viewpoint position e, and each camera has By recording an appropriate ray for each book, I e can be reconstructed as shown in FIG. 1 without physically placing a camera at the viewpoint position e.

【0012】なお、図1には平面画像の場合を示した
が、全天周画像も同様に再構成することができる。
Although FIG. 1 shows the case of a plane image, the whole sky image can be reconstructed in the same manner.

【0013】しかしながら、このような考えを実現する
ためには、各画素に対応した非常に多数のカメラが必要
となり、現実的ではない。しかし、より離散的に配置し
たカメラで撮影した画像から、各画素に対応したカメラ
によって撮影されるはずの画像を補間生成することがで
きれば、図2に示すように、各画素に対応した多数のカ
メラを配置した場合と同一の結果を得ることができる。
However, in order to realize such an idea, a very large number of cameras corresponding to each pixel are required, which is not realistic. However, if it is possible to interpolate and generate an image that should be captured by a camera corresponding to each pixel from images captured by more discretely arranged cameras, as shown in FIG. The same result can be obtained as when the camera is arranged.

【0014】すなわち、離散的に配置したカメラで撮影
した画像から、各カメラのレンズ中心を頂点とする多面
体表面の任意の視点位置における仮想画像を生成し、そ
れらの画像から適切な画素を選択すれば、多面体内部の
任意の視点位置における画像(補間画像)を生成できる
ことになる。
That is, a virtual image at an arbitrary viewpoint position on the surface of a polyhedron whose vertex is the lens center of each camera is generated from images captured by discretely arranged cameras, and an appropriate pixel is selected from those images. For example, it is possible to generate an image (interpolation image) at an arbitrary viewpoint position inside the polyhedron.

【0015】図3は、本実施形態による任意の視点によ
る補間画像の生成の原理を説明する図である。上述した
ように、各カメラレンズの中心を頂点とする多面体Sの
表面上の任意の視点位置における画像が生成できれば、
それらの画像から適切な画素を選択することによって、
多面体Sの内部の視点位置eにおける補間画像Ieを生
成することができる。
FIG. 3 is a view for explaining the principle of generating an interpolated image from an arbitrary viewpoint according to this embodiment. As described above, if an image at an arbitrary viewpoint position on the surface of the polyhedron S with the center of each camera lens as the vertex can be generated,
By selecting the appropriate pixels from those images,
The interpolated image I e at the viewpoint position e inside the polyhedron S can be generated.

【0016】具体的には、補間画像Ieを構成する全て
の画素Peに対して、画素Peを表す光線と多面体Sを構
成する多角形平面Fとの交点XFを求め、XFを視点位置
とする仮想画像IFを当該多角形平面Fの頂点をレンズ
中心とする画像から補間して生成し、画素Peに対応す
る仮想画像IF上の画素PFを求め、これを補間画像Ie
内の画素Peとして描画する。
Specifically, for all the pixels P e forming the interpolated image I e , the intersection X F between the ray representing the pixel P e and the polygonal plane F forming the polyhedron S is obtained, and X F the virtual image I F to the viewpoint position generated by the interpolation from the image to the lens center to the vertices of the polygon plane F, determine the pixel P F on the virtual image I F corresponding to the pixel P e, this Interpolated image I e
The pixel P e is drawn.

【0017】以下、本実施形態による任意視点からの補
間画像の生成について説明する。
The generation of an interpolated image from an arbitrary viewpoint according to this embodiment will be described below.

【0018】[システム構成の説明]図4は、本実施形
態のカメラシステムの概略構成を示すブロック図であ
る。図4において、41−1〜41−nは、略全天周方
向に向けて配置された複数台(n台)のカメラである
(以下、n台のカメラ41という)。本例ではn台のカ
メラ41としてCCDカメラを用いるものとする。42
はカメラコントローラであり、n台のカメラ41による
同時撮影を行うべく制御するとともに、これらの撮影に
よって得られた画像情報を画像格納処理部へ提供する。
43は画像格納処理部であり、カメラコントローラ42
によって得られたn台のカメラ41の夫々の画像を記憶
装置44に格納する。
[Description of System Configuration] FIG. 4 is a block diagram showing a schematic configuration of the camera system of the present embodiment. In FIG. 4, reference numerals 41-1 to 41-n denote a plurality (n) of cameras (hereinafter, referred to as n cameras 41) arranged substantially in the entire circumferential direction. In this example, CCD cameras are used as the n cameras 41. 42
Is a camera controller, which controls the simultaneous shooting by the n cameras 41 and provides image information obtained by these shootings to the image storage processing unit.
An image storage processing unit 43 includes a camera controller 42.
The respective images of the n cameras 41 obtained by the above are stored in the storage device 44.

【0019】45は視点位置及び視線方向入力部であ
り、所望の視点位置及び視線方向を装置に与える。46
は補間処理部であり、視点位置及び視線方向入力部45
で設定された視点位置と視線方向によって観察されるべ
き補間画像を、記憶装置44に格納された画像情報を基
に生成する。47は表示装置であり、画像生成部46に
よって生成された補間画像をCRT或いは液晶等のディ
スプレイに表示する。なお、画像格納処理部43と補間
処理部46とは1つのコンピュータで構成されていても
よい。
Reference numeral 45 is a viewpoint position and line-of-sight direction input unit, which gives a desired viewpoint position and line-of-sight direction to the apparatus. 46
Is an interpolation processing unit, and is a viewpoint position and line-of-sight direction input unit 45.
An interpolated image to be observed according to the viewpoint position and the line-of-sight direction set in step 1 is generated based on the image information stored in the storage device 44. A display device 47 displays the interpolated image generated by the image generation unit 46 on a display such as a CRT or a liquid crystal display. The image storage processing unit 43 and the interpolation processing unit 46 may be configured by one computer.

【0020】なお、仮想画像を生成するためには、入力
画像間で特徴点同士の対応を求めておく必要があり、そ
のためには全天周方向の全ての対象物が複数の入力画像
で観察されている必要がある。本実施形態では、後述す
るように3つの入力画像を用いて補間を行うので、少な
くとも3枚の入力画像で観察されている必要がある。図
5は本実施形態によるカメラ配置と画角の関係を説明す
る図である。図5では、説明の都合上2次元的なカメラ
配置を説明するが、これを3次元に拡張すればよい。
In order to generate a virtual image, it is necessary to find correspondences between feature points between input images. For that purpose, all objects in the omnidirectional direction are observed with a plurality of input images. Must have been In this embodiment, since interpolation is performed using three input images as described later, it is necessary to observe at least three input images. FIG. 5 is a diagram for explaining the relationship between the camera arrangement and the angle of view according to this embodiment. In FIG. 5, a two-dimensional camera arrangement is described for convenience of explanation, but this may be expanded to three dimensions.

【0021】今、カメラの垂直画角をα、カメラが半径
Rの球面上に、最も隣接するカメラとの角度間隔がθと
なるように配置されているとする。最も近距離の対象物
までの距離が球の中心からDである場合、全天周方向の
全ての対象物が少なくとも2枚の入力画像で観察される
ための条件は、以下のようになる。
It is now assumed that the vertical angle of view of the camera is α, and that the camera is arranged on a spherical surface having a radius R so that the angular interval between the camera and the closest camera is θ. When the distance to the closest object is D from the center of the sphere, the conditions for observing all the objects in the omnidirectional direction in at least two input images are as follows.

【0022】[0022]

【数7】 [Equation 7]

【0023】上記式(1)によれば、例えば、θ=30
度、R=1m、D=3mの場合は、α≧86.4度とな
る。ここで、カメラ台数が少数であれば撮影システムを
小規模にすることができ、データ量も少なくすることが
できる。しかし、カメラの台数を減らすと各カメラの画
角を広く取らなければならなくなり、得られる画像の解
像度が低下することになる。また、各種の収差も問題と
なってくる。更に、カメラ同士の間隔が離れることによ
り、特徴点の対応付けが困難になる。したがって、全天
周撮影システムを構築するにあたっては、これらの条件
を考慮して各カメラの配置間隔を設定する。
According to the above equation (1), for example, θ = 30
In the case of R = 1 m and D = 3 m, α ≧ 86.4 degrees. Here, if the number of cameras is small, the photographing system can be downsized and the amount of data can be reduced. However, if the number of cameras is reduced, the angle of view of each camera must be widened, and the resolution of the obtained image will be reduced. Also, various aberrations become a problem. Further, since the cameras are separated from each other, it becomes difficult to associate the feature points. Therefore, when constructing the omnidirectional photographing system, the arrangement intervals of the cameras are set in consideration of these conditions.

【0024】[全天周画像の再構成処理の説明]以上の
ように構成された全天周撮影システムによる、全天周画
像の再構成処理を説明する。図6は本実施形態による全
天周撮影システムの処理概要を示すフローチャートであ
る。ステップS601において、画像格納処理部43
は、n台のカメラ41によって撮影されたn枚の画像を
記憶装置44に格納する(以下、この処理を前処理とい
う)が実行される。また、カメラのレンズ中心を頂点と
した多面体の各平面上の任意の位置から観察され得る仮
想画像IFを補間生成するための各種情報が、各画像に
対応付けられて格納される。補間生成するための情報に
ついては、後述の説明により明らかとなろう。
[Explanation of All-Surface Image Reconstruction Processing] All-Surround Image Reconstruction Process by the All-Surface Imaging System Having the Above-mentioned Structure will be Described. FIG. 6 is a flow chart showing an outline of processing of the omnidirectional photographing system according to the present embodiment. In step S601, the image storage processing unit 43
Stores n images captured by the n cameras 41 in the storage device 44 (hereinafter, this process is referred to as preprocessing). Further, various information for interpolating and generating the virtual image I F that can be observed from any position on each plane of the polyhedron with the lens center of the camera as the vertex is stored in association with each image. The information for generating the interpolation will be apparent from the description below.

【0025】そして、視点位置/視線方向入力部45か
ら観察者の視点位置及び視線方向が与えられると、補間
処理部46は記憶装置44に格納された画像及び補間生
成のための情報を用いて、これに応じた補間画像を生成
し表示装置47にこれを表示する(ステップS60
2)。以上の補間画像の生成が終了すると本処理を終了
する(ステップS603)。
When the viewpoint position / line-of-sight direction input unit 45 gives the viewpoint position and line-of-sight direction of the observer, the interpolation processing unit 46 uses the image and the information for interpolation generation stored in the storage device 44. , An interpolated image corresponding to this is generated and displayed on the display device 47 (step S60).
2). When the above-described generation of the interpolated image ends, this process ends (step S603).

【0026】図7は本実施形態による前処理(ステップ
S601)の具体的な処理手順を説明するフローチャー
トである。ステップS701において、全天周方向に向
けて配置されたn台のカメラ41によって、全天周を撮
影する。このとき、n台のカメラ41の各々の位置、姿
勢も計測される。そして、ステップS702において、
各カメラより得られた画像と、各カメラの位置及び姿勢
を示す撮影情報とが対応付けられて記憶装置44に格納
され、画像データベースが作成される。ここで、カメラ
の位置を示す情報はレンズ中心(多面体Sの頂点)の座
標を直接的あるいは間接的に表すものである。また、カ
メラの姿勢を示す情報は、各カメラの光軸方向と光軸周
りの回転角を直接的或いは間接的に表すものである。
FIG. 7 is a flow chart for explaining a specific processing procedure of the preprocessing (step S601) according to this embodiment. In step S <b> 701, the n cameras 41 arranged in the omnidirectional direction capture the entire omnidirectional image. At this time, the positions and orientations of the n cameras 41 are also measured. Then, in step S702,
The image obtained from each camera and the shooting information indicating the position and orientation of each camera are stored in the storage device 44 in association with each other, and an image database is created. Here, the information indicating the position of the camera directly or indirectly represents the coordinates of the lens center (vertex of the polyhedron S). The information indicating the posture of the camera directly or indirectly represents the optical axis direction of each camera and the rotation angle around the optical axis.

【0027】続いて、ステップS703において、ステ
ップS702で生成された画像データベースの各画像を
3枚の画像を1組とした画像セットに分ける。後述する
が、本実施形態では多面体Sを形成する各平面を図3に
示すように三角形平面とし、選択された三角形平面を形
成する3つの頂点をレンズ中心とする3つの画像を用い
て画像IFを生成する。したがって、各画像セットは、
多面体Sを形成する三角形平面の各頂点をレンズ中心と
する3つの画像で構成される。そして、当該多面体Sを
構成する全ての三角形平面に対応して、画像セットが画
像データベースに登録される。
Subsequently, in step S703, each image in the image database generated in step S702 is divided into an image set including three images as one set. As will be described later, in the present embodiment, each plane forming the polyhedron S is a triangular plane as shown in FIG. 3, and three images having the three vertices forming the selected triangular plane as lens centers are used to form an image I. Produces F. Therefore, each image set is
It is composed of three images with each vertex of the triangular plane forming the polyhedron S as the lens center. Then, the image set is registered in the image database in correspondence with all the triangular planes forming the polyhedron S.

【0028】次に、ステップS704〜S708では、
各画像セット毎に、3枚の画像の間の同じ領域の対応付
けを画像データベースに登録する。また、物体による隠
れの影響を排除するために、本実施形態では画像を対象
物毎のレイヤに分けて仮想画像の生成を行う。したがっ
て、当該画像データベースには、各画像セット毎に、3
枚の画像の夫々が複数のレイヤで登録、保持され、各レ
イヤ毎に画像間の対応領域を示す情報が保持されること
になる。
Next, in steps S704 to S708,
For each image set, the correspondence of the same area between the three images is registered in the image database. In addition, in order to eliminate the influence of hiding by an object, in the present embodiment, the image is divided into layers for each object to generate a virtual image. Therefore, the image database contains 3 for each image set.
Each of the images is registered and held in a plurality of layers, and information indicating a corresponding area between the images is held for each layer.

【0029】以上の処理を図7に示されるステップによ
り、順を追って説明すると、まず、ステップS704に
て、画像セットを特定する番号(画像セット番号)を示
す変数iを1にセットする。そして、ステップS705
で、画像セットiに含まれる3枚の画像を、対象物毎に
レイヤに分割する。
The above processing will be described step by step with the steps shown in FIG. 7. First, in step S704, a variable i indicating a number (image set number) for specifying an image set is set to 1. Then, step S705
Then, the three images included in the image set i are divided into layers for each object.

【0030】図8は、ステップS705において実行さ
れるレイヤ画像への分割の処理の詳細を説明するフロー
チャートである。まず、ステップS801において、当
該画像セットに含まれる3枚の画像から、レイヤを分け
るべき対象物を決定し、その対象物の数に基づいて何枚
のレイヤ画像に分割するか、すなわち全レイヤ数mを決
める。そして、ステップS802において、レイヤ番号
を示す変数jを1に設定する。
FIG. 8 is a flow chart for explaining the details of the division processing into layer images, which is executed in step S705. First, in step S801, an object to be divided into layers is determined from the three images included in the image set, and how many layer images are to be divided based on the number of the objects, that is, the total number m of layers is determined. Decide Then, in step S802, the variable j indicating the layer number is set to 1.

【0031】次に、ステップS803においては、j番
目のレイヤの、当該レイヤに描画されるべき対象物(j
番目のレイヤに属する対象物)以外の領域を黒く塗りつ
ぶす。また、ステップS804において、j番目のレイ
ヤに属する対象物の、他のレイヤに属する対象物によっ
て隠されている部分をユーザにレタッチさせる。
Next, in step S803, the object (j) of the jth layer to be drawn on the layer (j
Areas other than the object belonging to the second layer) are painted black. In step S804, the user retouches the portion of the object belonging to the j-th layer, which is hidden by the objects belonging to other layers.

【0032】以上のようにしてj番目のレイヤ画像の編
集を終えると、次のレイヤ画像を処理するべく変数jに
1を加える(ステップS805)。ここで、変数jがス
テップS801で設定した全レイヤ数よりも大きくなっ
た場合は、当該画像セットについて全レイヤの処理を終
えたことになるので、本処理を終了する(ステップS8
06)。一方、変数jが全レイヤ数以下であれば、変数
jで示されるレイヤを処理するために処理をステップS
803へ戻す。
When the editing of the jth layer image is completed as described above, 1 is added to the variable j in order to process the next layer image (step S805). Here, when the variable j becomes larger than the number of all layers set in step S801, it means that the processing of all layers has been completed for the image set, and thus this processing ends (step S8).
06). On the other hand, if the variable j is equal to or less than the total number of layers, the process is performed to process the layer indicated by the variable j in step S.
Return to 803.

【0033】以上のステップS803における黒への塗
りつぶしや、ステップS804におけるレタッチは、例
えば市販の汎用の画像オーサリングツールソフトウエア
によって実行可能である。
The above black filling in step S803 and the retouching in step S804 can be executed by, for example, a commercially available general-purpose image authoring tool software.

【0034】レイヤの指定は、例えば画像の特徴点(通
常は輪郭線の頂点)の指定によって行う。この場合、レ
イヤ画像への分割は、対象物の画像の輪郭線の特徴点の
点列Pi(k)にレイヤ値iを割り当てることに帰結す
る。ここでiはレイヤを表す値(値が小さいほど、その
レイヤが視点から遠い)、kは同じレイヤiに含まれる
対象物を表す。
The layer is designated by, for example, designating a characteristic point of the image (usually the vertex of the contour line). In this case, the division into the layer images results in assigning the layer value i to the point sequence P i (k) of the feature points of the outline of the image of the object. Here, i represents a layer value (the smaller the value, the farther the layer is from the viewpoint), and k represents the object included in the same layer i.

【0035】例えば図12の画像RIをユーザがレイヤ
画像への分割を行うと、視点位置から遠いレイヤから順
に、3つのレイヤ画像に分割され、 レイヤI (i=I) :背景画像全体 レイヤII (i=II) :点列PI(1)=10→11→12→13→14 レイヤIII (i=III) :点列PI(1)=1→2→3→4→5→6 が得られる。なお、三角柱の頂点13はユーザからは見
えないが、ユーザは、三角柱の頂点13が四角柱によっ
て隠されていることがわかっているので、仮想点13を
与え、レタッチしている。
For example, when the user divides the image RI of FIG. 12 into layer images, the image is divided into three layer images in order from the layer farthest from the viewpoint position. Layer I (i = I): Whole background image layer II (I = II): Point sequence PI (1) = 10 → 11 → 12 → 13 → 14 Layer III (i = III): Point sequence PI (1) = 1 → 2 → 3 → 4 → 5 → 6 To be Although the vertex 13 of the triangular prism cannot be seen by the user, the user knows that the vertex 13 of the triangular prism is hidden by the square prism, and therefore gives the virtual point 13 to retouch.

【0036】以上の様な操作の結果、図12の画像から
図13(レイヤI)、図14(レイヤII)、図15(レ
イヤIII)が得られることになり、それぞれが画像デー
タベースに登録される。
As a result of the above operation, the images of FIG. 12 are obtained as shown in FIG. 13 (layer I), FIG. 14 (layer II), and FIG. 15 (layer III), which are registered in the image database. It

【0037】以上のようにして、レイヤ画像への分割を
終えると、引き続き図7のステップS706で、画像セ
ットiの同一階層のレイヤ毎に、3枚の画像の対応する
領域同士を三角形メッシュによって対応付ける(この点
については、ステップS903〜S906の補間処理に
おいて説明する)。そして、次の画像セットを処理する
べく、画像セット番号を示す変数iを1加算する(ステ
ップS707)。ここで、変数iが、登録されている全
画像セットの数よりも大きくなった場合は、全ての画像
セットについて処理を終えたことになるので、本処理を
終了する(ステップS708)。一方、変数iが全画像
セット数以下であれば、変数iで示される画像セットを
処理するために処理をステップS705へ戻す。
After the division into the layer images is completed as described above, in step S706 of FIG. 7, the corresponding regions of the three images are formed by the triangular mesh for each layer of the same layer of the image set i. Correspondence (this point will be described in the interpolation processing of steps S903 to S906). Then, in order to process the next image set, the variable i indicating the image set number is incremented by 1 (step S707). Here, if the variable i becomes larger than the number of all registered image sets, it means that the processing has been completed for all the image sets, so this processing is ended (step S708). On the other hand, if the variable i is equal to or less than the total number of image sets, the process returns to step S705 to process the image set indicated by the variable i.

【0038】以上のようにして、前処理が完了すると、
多面体Sを構成する各三角形平面毎の画像セットが登録
されることになる。そして、多面体S内の任意の視点位
置及び視線方向が与えられると、当該視点位置及び視線
方向から観察される画像を補間により生成する。以下、
ステップS602に示される補間画像の生成について説
明する。図9はステップS602の補間画像の生成を説
明するフローチャートである。
When the pretreatment is completed as described above,
An image set for each triangular plane forming the polyhedron S will be registered. Then, when an arbitrary viewpoint position and line-of-sight direction in the polyhedron S are given, an image observed from the viewpoint position and line-of-sight direction is generated by interpolation. Less than,
The generation of the interpolation image shown in step S602 will be described. FIG. 9 is a flowchart illustrating the generation of the interpolated image in step S602.

【0039】まず、ステップS901において、ユーザ
の視点位置及び視線方向を与える。今、図3に示される
ように、多面体S内の位置eに視点位置が与えられ、補
間画像Ieを生成すべく視線方向が与えられたとする。
以下、生成すべき補間画像Ieの各画素を画素i(i=
1〜補間画像Ieの画素数)とし、その値をPeとする。
First, in step S901, the viewpoint position and line-of-sight direction of the user are given. Now, as shown in FIG. 3, it is assumed that the viewpoint position is given to the position e in the polyhedron S and the line-of-sight direction is given to generate the interpolated image I e .
Hereinafter, each pixel of the interpolated image I e to be generated is represented by a pixel i (i =
1 to the number of pixels of the interpolated image I e ), and its value is P e .

【0040】ステップS902において、画素番号iに
1を代入し、ステップS903〜S907の各処理を実
行して画素iを描画する。これを、当該補間画像Ie
全ての画素について行って(ステップS908とS90
9)、補間画像Ieを得る。
In step S902, 1 is assigned to the pixel number i, and the processes in steps S903 to S907 are executed to draw the pixel i. This is performed for all the pixels of the interpolation image I e (steps S908 and S90).
9) Obtain the interpolated image I e .

【0041】ステップS903〜S906では、画素i
を表す光線との交点を有する三角形平面を求め、この交
点視点位置とし当該三角形平面に平行な仮想画像IF
求め、補間画像Ieの画素に対応する画素を仮想画像IF
から得て描画する。本実施形態では、仮想画像の生成方
法として「Cybeycity Walker -Layered Morphing Metho
d-, Proc. HCI’99, Vol.2, pp.1044-1048, 1999 (T.En
do, A.Katayama, H.Tamura, M.Hirose, T.Tanikawa)」
で提案されている手法を用いる。
In steps S903 to S906, the pixel i
Is calculated, a virtual plane I F parallel to the triangular plane is obtained, and a pixel corresponding to a pixel of the interpolated image I e is obtained as a virtual image I F.
Get from and draw. In the present embodiment, as a virtual image generation method, "Cybey city Walker -Layered Morphing Metho
d-, Proc. HCI'99, Vol.2, pp.1044-1048, 1999 (T.En
do, A.Katayama, H.Tamura, M.Hirose, T.Tanikawa) ''
Use the method proposed in.

【0042】この手法によれば、3枚の入力画像を基に
して、3台のカメラのレンズ中心を頂点とする三角形内
の任意視点位置における歪みの無い仮想画像を生成する
ことが可能である。具体的には、あらかじめ3枚の画像
の対応領域を三角形メッシュで対応付けておき(ステッ
プS706)、これら三角形メッシュの頂点の座標を補
間して求めて配置し、補間して配置された三角形メッシ
ュに入力画像中の対応する領域の画像をテクスチャ・マ
ッピングすることによって仮想画像を生成する。ここ
で、3枚の入力画像の光軸が平行になるように正規化し
てから線形補間することにより、生成画像に歪みが発生
することを防止できる。
According to this method, it is possible to generate a virtual image without distortion at an arbitrary viewpoint position in a triangle having the lens centers of the three cameras as vertices based on the three input images. . Specifically, the corresponding areas of the three images are previously associated with each other by a triangular mesh (step S706), the coordinates of the vertices of these triangular meshes are interpolated to be arranged, and the interpolated triangular meshes are arranged. A virtual image is generated by texture mapping the image of the corresponding region in the input image. Here, it is possible to prevent the generated image from being distorted by performing linear interpolation after normalizing the optical axes of the three input images to be parallel.

【0043】全天周方向に向けた各カメラのレンズ中心
を頂点とする多面体の各面は、3台のカメラのレンズ中
心を頂点とする三角形によって構成される。したがっ
て、各面に対して上述の手法を適用することにより、多
面体の表面上の任意の視点位置における画像を歪み無く
生成できることになる。
Each face of the polyhedron having the apex of the lens center of each camera in the direction of the whole sky is formed by a triangle having the apex of the lens centers of the three cameras. Therefore, by applying the above-described method to each surface, it is possible to generate an image at an arbitrary viewpoint position on the surface of the polyhedron without distortion.

【0044】なお、各カメラの外部パラメータは予め正
確に求められており、また、多面体Sを構成する各三角
形平面で3枚の入力画像の対応領域が三角形メッシュで
対応付けられているものとする。更に、各カメラの焦点
距離は同一であるとする。
It is assumed that the external parameters of each camera are accurately obtained in advance, and that the corresponding areas of the three input images are associated with each other by the triangular mesh on each triangular plane forming the polyhedron S. . Furthermore, it is assumed that the focal lengths of the cameras are the same.

【0045】図9のステップS903において、画素i
を表す光線が各カメラのレンズ中心を頂点とする多面体
Sを構成するどの三角形平面と交わるかを求め、多面体
Sのどの三角形平面を用いて仮想画像を生成するかを決
定する。すなわち、図3において、画素Peを表す光線
lの方向と各カメラの位置及び光軸方向との関係から、
該光線lとの交点を有する三角形平面Fを決定する。そ
して、当該三角形平面の3頂点(X1、X2、X3)をレ
ンズ中心とする3つの画像(それぞれIA,IB,IC
とする)を決定する。
In step S903 of FIG. 9, the pixel i
It is determined which triangle plane of the polyhedron S having the vertex of the lens center of each camera intersects, and which triangle plane of the polyhedron S is used to generate the virtual image. That is, in FIG. 3, from the relationship between the direction of the light ray 1 representing the pixel P e , the position of each camera, and the optical axis direction,
Determine a triangular plane F having an intersection with the ray l. Then, three images (IA, IB, IC respectively) having the three vertices (X 1 , X 2 , X 3 ) of the triangular plane as the lens centers are provided.
And decide).

【0046】次に、三角形平面Fと光線lとの交点の座
標(XF,YF,ZF)を求め、補間係数wn(n=1,
2,3)を求める。補間係数wnは以下の式(2)によ
って求められる。なお、ここで、(Xm,Ym,Zm
(m=1,2,3)は平面Fを構成する3つのレンズ中
心の座標である。また、Σwnは1となる。
Next, the coordinates (X F , Y F , Z F ) of the intersection of the triangular plane F and the ray 1 are obtained, and the interpolation coefficient w n (n = 1, n = 1,
2, 3) is calculated. The interpolation coefficient w n is calculated by the following equation (2). Here, (X m , Y m , Z m )
(M = 1, 2, 3) are the coordinates of the centers of the three lenses forming the plane F. Also, Σw n becomes 1.

【0047】[0047]

【数8】 [Equation 8]

【0048】次に、ステップS905及びステップS9
06において仮想画像IFを生成する。すなわち、レン
ズ中心が(XF,YF,ZF)であり、光軸方向が平面F
の法線方向である仮想画像IFを生成する。
Next, steps S905 and S9.
At 06, a virtual image I F is generated. That is, the lens center is (X F , Y F , Z F ) and the optical axis direction is the plane F.
A virtual image I F that is the normal direction of is generated.

【0049】この処理を、図10を参照しながら説明す
る。まず、ステップS905において、各画像IA,I
B,ICについて、その光軸が三角形平面の法線方向と
一致するように画像IA,IB,ICを回転させ(正規
化し)、IA’、IB’、IC’を得る(図10(a)
→(b))。そして、ステップS906において、ステ
ップS904で求めた補間係数wnとIA’、IB’、
IC’用いて、線形補間により仮想画像IFを求める
(図10(b))。この処理は、次式(3)を用いて行
うことができる。
This processing will be described with reference to FIG. First, in step S905, each image IA, I
For B and IC, the images IA, IB, and IC are rotated (normalized) so that their optical axes coincide with the normal direction of the triangular plane, and IA ′, IB ′, and IC ′ are obtained (FIG. 10A).
→ (b)). Then, in step S906, the interpolation coefficients w n and IA ′, IB ′ obtained in step S904,
The virtual image I F is obtained by linear interpolation using IC ′ (FIG. 10B). This processing can be performed using the following equation (3).

【0050】[0050]

【数9】 [Equation 9]

【0051】ただし、(x、y)は仮想画像IF中に決
定される特徴点の座標であり、(x’n、y’n)(n=
1,2,3)はそれぞれ画像IA,IB,ICを正規化
した画像IA’、IB’、IC’中の特徴点の座標であ
る。なお、元の画像(IA,IB,IC)中の座標か
ら、回転変換後の画像中の座標への変換は、
However, (x, y) is the coordinates of the feature point determined in the virtual image I F , and (x ′ n , y ′ n ) (n =
1, 2, 3) are the coordinates of the feature points in the images IA ′, IB ′, IC ′ obtained by normalizing the images IA, IB, IC, respectively. The conversion from the coordinates in the original image (IA, IB, IC) to the coordinates in the image after the rotation conversion is

【0052】[0052]

【数10】 によって表される。ただし、P、P’は元の画像と回転
変換後の画像における対応する点の座標(画像の中心を
原点とする同次座標)であり、Aは元の画像のカメラ内
部パラメータ行列、A’は回転変換後の画像のカメラ内
部パラメータ行列、Rはワールド座標から元の画像のカ
メラ座標への回転行列、R’はワールド座標から回転変
換後の画像のカメラ座標への回転行列である。この計算
により、画像IA、IB、IC中の各特徴点の座標を、
回転後の画像IA’、IB’、IC’中の特徴点の座標
に変換することができる。
[Equation 10] Represented by Here, P and P ′ are coordinates of corresponding points in the original image and the image after rotation conversion (homogeneous coordinates having the center of the image as an origin), A is a camera internal parameter matrix of the original image, and A ′. Is a camera internal parameter matrix of the image after the rotation conversion, R is a rotation matrix from the world coordinates to the camera coordinates of the original image, and R ′ is a rotation matrix from the world coordinates to the camera coordinates of the image after the rotation conversion. By this calculation, the coordinates of each feature point in the images IA, IB, and IC are
It can be converted into the coordinates of the feature points in the rotated images IA ′, IB ′, and IC ′.

【0053】以上のようにして、画像IA,IB,IC
中の各特徴点を仮想画像IF上へ配置し、得られた三角
形メッシュに、画像IA,IB,ICの対応する三角形
メッシュのテクスチャをブレンドしてマッピングする。
As described above, the images IA, IB, IC
Each feature point in the inside is arranged on the virtual image I F , and the texture of the corresponding triangular mesh of the images IA, IB, and IC is blended and mapped to the obtained triangular mesh.

【0054】以上のようにして仮想画像IFが求まる
と、ステップS907において、画素Peに対して仮想
画像IF中のどの画素を選択したらよいかを以下の式
(5)によって求め、その画素PFの値を補間画像Ie
の画素Peの値として描画する。
When the virtual image I F is obtained as described above, in step S907, which pixel in the virtual image I F should be selected for the pixel P e is obtained by the following equation (5), and The value of the pixel P F is drawn as the value of the pixel P e on the interpolated image I e .

【0055】[0055]

【数11】 ただし、PF、PeはそれぞれIFとIeにおける対応する
点の座標(画像の中心を原点とする同次座標)であり、
Fを前記仮想画像のカメラ内部パラメータ行列、Ae
前記補間画像のカメラ内部パラメータ行列、RFをワー
ルド座標から前記仮想画像のカメラ座標への回転行列、
eをワールド座標から前記補間画像のカメラ座標への
回転行列である。
[Equation 11] However, P F and P e are the coordinates of the corresponding points in I F and I e (homogeneous coordinates with the center of the image as the origin), respectively.
A F is a camera internal parameter matrix of the virtual image, A e is a camera internal parameter matrix of the interpolated image, R F is a rotation matrix from the world coordinates to the camera coordinates of the virtual image,
R e is a rotation matrix from world coordinates to camera coordinates of the interpolated image.

【0056】以上のステップS903乃至S907の処
理を、補間画像Ieを形成する全ての画素について行う
と(ステップS908、S909)、補間画像Ieが完
成する。
When the above steps S903 to S907 are performed for all the pixels forming the interpolated image I e (steps S908 and S909), the interpolated image I e is completed.

【0057】なお、上述したように各画像セット内の各
画像はレイヤに分割して保持されており、ステップS9
06における仮想画像IFの生成はレイヤ数分の仮想画
像に基づいてなされることになる。例えば、これらのレ
イヤ数分の仮想画像を視点位置から遠い順に描画、合成
することで、最終的な仮想画像IFが得られることにな
る。
As described above, each image in each image set is divided into layers and held.
The virtual image I F in 06 is generated based on the virtual images for the number of layers. For example, the final virtual image I F can be obtained by drawing and synthesizing the virtual images corresponding to the number of layers in order from the viewpoint position.

【0058】以上説明したように、本実施形態によれ
ば、限られた数のカメラによって得られた画像から任意
の視線方向の補間画像を得ることができる。すなわち、
全天周画像を得ることができる。
As described above, according to the present embodiment, it is possible to obtain an interpolated image in an arbitrary line-of-sight direction from images obtained by a limited number of cameras. That is,
The whole sky image can be obtained.

【0059】なお、上記の処理における線形補間による
仮想画像の生成は、その視点位置が三角形平面内に存在
する場合を扱った。しかしながら、視点位置が三角形平
面の外部にはみ出しても、外挿補間によって、当該三角
形平面の3頂点をレンズ中心とした画像から線形補間を
行うようにすることもできる。
The generation of the virtual image by the linear interpolation in the above processing has dealt with the case where the viewpoint position is within the triangular plane. However, even if the viewpoint position is outside the triangular plane, it is possible to perform extrapolation to perform linear interpolation from an image with the three vertices of the triangular plane as the lens centers.

【0060】図11この様子を示す図である。上述した
補関係数wn(n=1、2、3)による線型補間処理
は、図11(b)に示すように、位置1の画像と位置2
の画像を1−s:sで線型補間して位置4に第1の仮想
画像を形成し、位置4の仮想画像と位置3の画像をt:
1−tで線型補間して位置e’の画像を得ていることに
等しい。
FIG. 11 is a diagram showing this state. As shown in FIG. 11B, the linear interpolation processing using the complementary number w n (n = 1, 2, 3) described above is performed on the image at the position 1 and at the position 2
Image is linearly interpolated at 1-s: s to form a first virtual image at position 4, and the virtual image at position 4 and the image at position 3 are t:
This is equivalent to linearly interpolating at 1-t to obtain the image at position e '.

【0061】しかしながら、位置e’’のように三角形
平面の外に視点位置がある場合でも、位置4の仮想画像
と位置3の画像をt’:1−t’で線型補間をすればよ
い(この場合、t’は負となる)。なお、上述した実施
形態では、補間画像中の画素を得るために、対応する光
線と三角形平面の交点を求めているので、視点位置が三
角形平面の外に出ることはあり得ない。しかしながら、
補間画像中の画素を得るために、「光線と平面の交点を
求める手法」とは異なる手法を用いた場合(例えばカメ
ラの姿勢も考慮して三角形平面を決定するような場合等
が考えられる)には、視点が平面から出てしまう場合が
発生し得る。
However, even when the viewpoint position is outside the triangular plane like the position e ″, the virtual image at the position 4 and the image at the position 3 may be linearly interpolated at t ′: 1−t ′ ( In this case, t'is negative). In the above-described embodiment, since the intersection of the corresponding ray and the triangular plane is obtained in order to obtain the pixel in the interpolated image, the viewpoint position cannot go out of the triangular plane. However,
In order to obtain pixels in the interpolated image, a method different from the “method for obtaining the intersection of the ray and the plane” is used (for example, a case where a triangular plane is determined in consideration of the camera orientation as well) In some cases, the viewpoint may go out of the plane.

【0062】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
Another object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to supply a computer (or CPU) of the system or apparatus.
It is needless to say that it can be achieved by reading and executing the program code stored in the storage medium.

【0063】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

【0064】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD
-R, magnetic tape, non-volatile memory card, ROM, etc. can be used.

【0065】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
Further, not only the functions of the above-described embodiment are realized by executing the program code read by the computer, but also the OS (operating system) running on the computer based on the instructions of the program code. It is needless to say that this also includes a case where the above) performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments.

【0066】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that a case where the CPU or the like included in the function expansion board or the function expansion unit performs some or all of the actual processing and the processing realizes the functions of the above-described embodiments is also included.

【0067】[0067]

【発明の効果】以上説明したように、本発明によれば、
全天周方向に向けて配置した、物理的に配置可能な台数
のカメラから得られた複数の画像に基づいて全天周画像
を補間生成することが可能となる。特に、離散的に配置
されたカメラで撮影された複数の画像から所望の視点位
置及び視線方向の画像を求めることが可能となる。
As described above, according to the present invention,
It becomes possible to interpolate and generate the omnidirectional image based on a plurality of images obtained from the physically arrangable number of cameras arranged in the omnidirectional direction. In particular, discretely placed
Desired viewpoint position from multiple images taken by the selected camera
It is possible to obtain an image of the position and the direction of the line of sight.

【図面の簡単な説明】[Brief description of drawings]

【図1】超多視点画像からの任意の視点画像の生成手法
を説明する図である。
FIG. 1 is a diagram illustrating a method of generating an arbitrary viewpoint image from a super multi-viewpoint image.

【図2】多視点画像の補間に基づく任視点画像の生成手
法を説明する図である。
FIG. 2 is a diagram illustrating a method of generating an appointment viewpoint image based on interpolation of a multi-viewpoint image.

【図3】本実施形態による任意の視点による補間画像の
生成の原理を説明する図である。
FIG. 3 is a diagram illustrating a principle of generating an interpolated image from an arbitrary viewpoint according to the present embodiment.

【図4】本実施形態のカメラシステムの概略構成を示す
ブロック図である。
FIG. 4 is a block diagram showing a schematic configuration of a camera system of the present embodiment.

【図5】本実施形態によるカメラ配置と画角の関係を説
明する図である。
FIG. 5 is a diagram illustrating a relationship between a camera arrangement and an angle of view according to the present embodiment.

【図6】本実施形態による全天周撮影システムの処理概
要を示すフローチャートである。
FIG. 6 is a flowchart showing an outline of processing of the omnidirectional imaging system according to the present embodiment.

【図7】本実施形態による前処理(ステップS601)
の具体的な処理手順を説明するフローチャートである。
FIG. 7: Pre-processing according to the present embodiment (step S601)
6 is a flowchart illustrating a specific processing procedure of.

【図8】ステップS705において実行されるレイヤ画
像への分割の処理の詳細を説明するフローチャートであ
る。
FIG. 8 is a flowchart illustrating details of a process of dividing into layer images, which is executed in step S705.

【図9】ステップS602の補間画像の生成を説明する
フローチャートである。
FIG. 9 is a flowchart illustrating generation of an interpolation image in step S602.

【図10】3枚の画像から補間画像を生成する手順を説
明する図である。
FIG. 10 is a diagram illustrating a procedure for generating an interpolated image from three images.

【図11】外挿を許可する場合を説明する図である。FIG. 11 is a diagram illustrating a case where extrapolation is permitted.

【図12】レイヤへの分割対象である画像例を示す図で
ある。
FIG. 12 is a diagram showing an example of an image which is a target of division into layers.

【図13】図12の画像からレイヤ分割によって得られ
る画像例を示す図である。
13 is a diagram showing an example of an image obtained by layer division from the image of FIG.

【図14】図12の画像からレイヤ分割によって得られ
る画像例を示す図である。
FIG. 14 is a diagram showing an example of an image obtained by layer division from the image of FIG.

【図15】図12の画像からレイヤ分割によって得られ
る画像例を示す図である。
FIG. 15 is a diagram showing an example of an image obtained by layer division from the image of FIG.

フロントページの続き (56)参考文献 特開 平9−190550(JP,A) Tkaaki Endo,Akihi ro Katayama,Hideyu ki Tamura,Michitak a Hirose,Tomohiro Tanikawa,Cybercity Walker−Layered Mo rphing Method− ,Pr oc.HCI’99,1999年,Vol. 2,pp.1044−1048 (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 315 G06T 3/00 300 JICSTファイル(JOIS)Continuation of the front page (56) References JP-A-9-190550 (JP, A) Tkaaki Endo, Akihiro Katayama, Hideyuki ki Tamura, Michitaka moiraker, poker-yaker ed. HCI'99, 1999, Vol. 2, pp. 1044-1048 (58) Fields investigated (Int.Cl. 7 , DB name) G06T 1/00 315 G06T 3/00 300 JISST file (JOIS)

Claims (9)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 離散的に配置されたカメラで撮影された
複数の画像に基づいて所望の視点位置及び視線方向の補
間画像を生成する画像処理装置であって、任意の視点位置及び視線方向情報を入力する入力手段
と、 前記複数の画像の各々を撮影したカメラのレンズ中心を
頂点とする多面体を構成する平面のうち、前記入力手段
で入力された視点位置と前記補間画像中の注目画素を
光線との交点を有する平面を抽出する抽出手段と、 前記抽出手段で抽出された平面の頂点をレンズ中心とす
る複数の画像に基づいて、前記交点を視点位置とする仮
想画像を補間生成する補間手段と、 前記仮想画像から前記注目画素に対応する画素を取得し
て、これを用いて当該注目画素を描画する描画手段と、 前記補間画像中の画素の各々に関して、前記抽出手段と
前記補間手段と前記描画手段を繰り返すことにより、前
記入力手段で入力された視点位置及び視線方向情報に応
じた前記補間画像を生成する生成手段とを備えることを
特徴とする画像処理装置。
An image processing apparatus for generating an interpolated image in a desired viewpoint position and a line-of-sight direction based on a plurality of images captured by discretely arranged cameras, the arbitrary viewpoint position And an input means for inputting the gaze direction information
When, among the planes constituting a polyhedron whose vertices lens center of the cameras taking each of the plurality of images, said input means
Binding in the inputted visual point position on the target pixel in the interpolation image
Extraction means for extracting a plane having a department intersection of a ray based on a plurality of images to the lens center to the vertices of the extracted plane by said extraction means, for generating interpolated virtual image to the viewpoint position of the intersection point Interpolation means, a drawing means for obtaining a pixel corresponding to the pixel of interest from the virtual image, and drawing the pixel of interest using the pixel, and the extraction means and the interpolation for each of the pixels in the interpolation image. the return Succoth repeat the drawing means and means, prior to
The viewpoint position and line-of-sight direction information input by the input means are used.
An image processing apparatus comprising: a generation unit configured to generate the same interpolated image.
【請求項2】 離散的に配置されたカメラで撮影された
複数の画像に基づいて所望の視点位置及び視線方向の補
間画像を生成する画像処理方法であって、任意の視点位置及び視線方向情報を入力する入力工程
と、 前記複数の画像の各々を撮影したカメラのレンズ中心を
頂点とする多面体を構成する平面のうち、前記入力工程
で入力された視点位置と前記補間画像中の注目画素を
光線との交点を有する平面を抽出する抽出工程と、 前記抽出工程で抽出された平面の頂点をレンズ中心とす
る複数の画像に基づいて、前記交点を視点位置とする仮
想画像を補間生成する補間工程と、 前記仮想画像から前記注目画素に対応する画素を取得し
て、これを用いて当該注目画素を描画する描画工程と、 前記補間画像中の画素の各々に関して、前記抽出工程と
前記補間工程と前記描画工程を繰り返すことにより、前
記入力手段で入力された視点位置及び視線方向情報に応
じた前記補間画像を生成する生成工程とを備えることを
特徴とする画像処理方法。
2. An image processing method for generating an interpolated image in a desired viewpoint position and a line-of-sight direction based on a plurality of images captured by discretely arranged cameras, the arbitrary viewpoint position And the input process to input the eye direction information
And the input step among the planes forming a polyhedron whose vertex is at the lens center of the camera capturing each of the plurality of images.
Binding in the inputted visual point position on the target pixel in the interpolation image
An extraction step of extracting a plane having a department intersection of a ray based on a plurality of images to the lens center to the vertices of the plane that is extracted by the extraction step, to generate interpolated virtual image to the viewpoint position of the intersection point An interpolation step, a drawing step of acquiring a pixel corresponding to the target pixel from the virtual image, and drawing the target pixel using the pixel, and the extraction step and the interpolation for each pixel in the interpolation image. the process as repeat the drawing process Succoth, before
The viewpoint position and line-of-sight direction information input by the input means are used.
And a generation step of generating the same interpolated image.
【請求項3】 前記補間工程は、前記抽出工程で抽出さ
れた平面の頂点をレンズ中心とする複数の画像を、各画
像の光軸が該平面の法線方向と一致するように回転し、
回転された画像を用いた線形補間により、前記交点を視
点位置とする該平面と平行な仮想画像を補間生成するこ
とを特徴とする請求項に記載の画像処理方法。
3. The interpolating step rotates a plurality of images having a vertex of a plane extracted in the extracting step as a lens center so that an optical axis of each image coincides with a normal direction of the plane,
The image processing method according to claim 2 , wherein a virtual image that is parallel to the plane having the point of view at the intersection is generated by linear interpolation using a rotated image.
【請求項4】 前記多面体を形成する各平面が3つのレ
ンズ中心を頂点とする三角形平面であることを特徴とす
る請求項2又は3に記載の画像処理方法。
4. The image processing method according to claim 2, wherein each plane forming the polyhedron is a triangular plane having three lens centers as vertices.
【請求項5】 前記描画工程は、前記仮想画像上の画素
の座標をPF、前記補間画像上における対応する画素の
座標をPeとし、ここでこれら座標は画像の中心を原点
とする同次座標であり、AFを前記仮想画像のカメラ内
部パラメータ行列、Aeを前記補間画像のカメラ内部パ
ラメータ行列、RFをワールド座標から前記仮想画像の
カメラ座標への回転行列、Reをワールド座標から前記
補間画像のカメラ座標への回転行列とした場合に、 によって前記補間画像上の画素に対応する前記仮想画像
上の点を求めることを特徴とする請求項2乃至4のいず
れかに記載の画像処理方法。
5. The drawing step sets the coordinates of pixels on the virtual image to P F and the coordinates of corresponding pixels on the interpolated image to P e , where these coordinates are the origin of the image. Next order coordinates, A F is a camera internal parameter matrix of the virtual image, A e is a camera internal parameter matrix of the interpolated image, R F is a rotation matrix from the world coordinates to the camera coordinates of the virtual image, and R e is a world. When the rotation matrix from the coordinates to the camera coordinates of the interpolation image, Claims 2 to 4 noise and obtains a point on the virtual image corresponding to the pixel on the interpolated image by
The image processing method according to either Re.
【請求項6】 略全天周方向に向いた複数のカメラで同
時に撮影して得られた複数の画像を、各画像を撮影した
カメラのレンズ中心及び光軸に対応する撮影条件情報と
ともに格納して前記各工程に提供する格納工程を更に備
えることを特徴とする請求項2乃至5のいずれかに記載
の画像処理方法。
6. A plurality of images obtained by simultaneously shooting with a plurality of cameras oriented substantially in the omnidirectional direction are stored together with shooting condition information corresponding to the lens center and optical axis of the camera that shot each image. The image processing method according to claim 2 , further comprising a storage step of providing each of the steps.
【請求項7】 前記多面体を構成する平面が三角形平面
であり、 前記格納工程は、前記複数の画像を互いに隣接する3枚
を一組とし、前記補間工程による利用のために、同一組
の3枚の画像中の対応する領域同士を対応付ける対応情
報を格納することを特徴とする請求項に記載の画像処
理方法。
7. A plane forming the polyhedron is a triangular plane, and in the storing step, a set of three adjacent images of the plurality of images is set, and the same set of three images is used for use in the interpolation step. 7. The image processing method according to claim 6 , further comprising storing correspondence information that associates corresponding areas in one image with each other.
【請求項8】 前記格納工程は、前記同一組の3枚の画
像の各々を、特定の対象物を描画する複数のレイヤ画像
に分割して格納し、ここで、各レイヤ画像では他のレイ
ヤに属する対象物によって隠された対象物の部分がレタ
ッチされており、該対象物以外の領域は無効領域であ
り、 前記生成工程は、前記各レイヤ毎の補間画像を生成し、
前記視点位置に遠いレイヤの補間画像から近いものへと
順に重ね合わせ描画することで最終的な補間画像を得る
ことを特徴とする請求項に記載の画像処理方法。
8. The storing step divides each of the three images of the same set into a plurality of layer images for drawing a specific object and stores the plurality of layer images, wherein each layer image includes another layer. The part of the object hidden by the object belonging to is retouched, the area other than the object is an invalid area, the generating step generates an interpolation image for each layer,
The image processing method according to claim 7 , wherein a final interpolated image is obtained by sequentially drawing the interpolated image of a layer distant from the viewpoint position to one closer to the viewpoint position.
【請求項9】 請求項2乃至8のいずれかに記載の画像
処理方法をコンピュータによって実現するための制御プ
ログラムを格納することを特徴とする記憶媒体。
9. A storage medium, which stores a control program for realizing the image processing method according to claim 2 by a computer.
JP2000280697A 2000-09-14 2000-09-14 Image processing method and apparatus Expired - Fee Related JP3387900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000280697A JP3387900B2 (en) 2000-09-14 2000-09-14 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000280697A JP3387900B2 (en) 2000-09-14 2000-09-14 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2002092597A JP2002092597A (en) 2002-03-29
JP3387900B2 true JP3387900B2 (en) 2003-03-17

Family

ID=18765481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000280697A Expired - Fee Related JP3387900B2 (en) 2000-09-14 2000-09-14 Image processing method and apparatus

Country Status (1)

Country Link
JP (1) JP3387900B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016110034A1 (en) * 2015-01-08 2016-07-14 京东方科技集团股份有限公司 Multiple field of view display component, patterned shielding layer and multiple field of view display device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10619415B2 (en) 2004-05-06 2020-04-14 Mechoshade Systems, Llc Sky camera system utilizing circadian information for intelligent building control
US11187035B2 (en) 2004-05-06 2021-11-30 Mechoshade Systems, Llc Sky camera virtual horizon mask and tracking solar disc
JP5044817B2 (en) 2007-11-22 2012-10-10 インターナショナル・ビジネス・マシーンズ・コーポレーション Image processing method and apparatus for constructing virtual space
JP5144456B2 (en) * 2008-10-09 2013-02-13 富士フイルム株式会社 Image processing apparatus and method, image reproducing apparatus and method, and program
GB2563126B (en) * 2017-06-01 2020-04-08 Mechoshade Sys Llc Sky camera system for intelligent building control

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Tkaaki Endo,Akihiro Katayama,Hideyuki Tamura,Michitaka Hirose,Tomohiro Tanikawa,Cybercity Walker−Layered Morphing Method− ,Proc.HCI’99,1999年,Vol.2,pp.1044−1048

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016110034A1 (en) * 2015-01-08 2016-07-14 京东方科技集团股份有限公司 Multiple field of view display component, patterned shielding layer and multiple field of view display device
US10139665B2 (en) 2015-01-08 2018-11-27 Boe Technology Group Co., Ltd. Multiple viewing-field display component, patterned shielding layer and multiple viewing-field display apparatus

Also Published As

Publication number Publication date
JP2002092597A (en) 2002-03-29

Similar Documents

Publication Publication Date Title
CN111062873B (en) Parallax image splicing and visualization method based on multiple pairs of binocular cameras
CN109658365B (en) Image processing method, device, system and storage medium
US6157385A (en) Method of and apparatus for performing perspective transformation of visible stimuli
EP1453001B1 (en) Image processing apparatus, image processing method, storage medium and computer program
Swaninathan et al. A perspective on distortions
JP6201476B2 (en) Free viewpoint image capturing apparatus and method
JP5093053B2 (en) Electronic camera
JP2004187298A (en) Plotting and encoding processing of panoramic image and omnidirection image
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
CN107563959B (en) Panorama generation method and device
Bradley et al. Image-based navigation in real environments using panoramas
JP3352475B2 (en) Image display device
US20030117675A1 (en) Curved image conversion method and record medium where this method for converting curved image is recorded
US6750860B1 (en) Rendering with concentric mosaics
US6795090B2 (en) Method and system for panoramic image morphing
US6731284B1 (en) Method of and apparatus for performing perspective transformation of visible stimuli
CN114511447A (en) Image processing method, device, equipment and computer storage medium
JPH11504452A (en) Apparatus and method for reproducing and handling a three-dimensional object based on a two-dimensional projection
CN114549289A (en) Image processing method, image processing device, electronic equipment and computer storage medium
JP3387900B2 (en) Image processing method and apparatus
CN113096008A (en) Panoramic picture display method, display device and storage medium
JP2002094849A (en) Wide view image pickup device
JPH10208074A (en) Picture generation method
JPH1173489A (en) Image storing method and machine-readable medium
JPH09237346A (en) Method for composing partial stereoscopic model and method for preparing perfect stereoscopic model

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20021206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090110

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100110

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110110

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120110

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130110

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140110

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees