JPH11355806A - Method and device for three-dimensional image display by stereoscopic image photographing - Google Patents
Method and device for three-dimensional image display by stereoscopic image photographingInfo
- Publication number
- JPH11355806A JPH11355806A JP10163924A JP16392498A JPH11355806A JP H11355806 A JPH11355806 A JP H11355806A JP 10163924 A JP10163924 A JP 10163924A JP 16392498 A JP16392498 A JP 16392498A JP H11355806 A JPH11355806 A JP H11355806A
- Authority
- JP
- Japan
- Prior art keywords
- viewpoint
- image
- stereo
- area
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【技術分野】本発明は、ステレオ写真撮影による3次元
画像表示方法及びその方法を用いた装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for displaying a three-dimensional image by stereo photography and an apparatus using the method.
【0002】[0002]
【従来技術及びその問題点】従来、撮影対象(被写体)
の画像をCRT等のモニター画面上に表示させる表示法
として、先ず撮影対象をその周囲の異なる複数位置の各
々から撮影(撮像)し、その後希望の観察方向(アング
ル)に最も近い映像をモニター画面上に表示させる画像
表示法が知られている。2. Description of the Related Art Conventionally, a subject to be photographed (subject)
As a display method for displaying the image on a monitor screen such as a CRT, a photographing target is first photographed (imaged) from each of a plurality of different positions around the image, and then an image closest to a desired observation direction (angle) is displayed on the monitor screen. An image display method to be displayed on the top is known.
【0003】このような従来の画像表示法では、希望の
観察方向が撮影時点の方向に依存するため、任意の視点
から観た映像を再現することはできない。図17は、こ
の従来の画像表示法による撮影状況の一例を示してい
る。この例では、同一のカメラ(デジタルカメラ)Cに
より、略立方体形状の撮影対象sをその周囲の異なる複
数位置(4ヵ所)の各々から撮影する。つまりカメラC
により、撮影対象sを異なる4方向(D1,D2,D
3,D4)から撮影する。撮影対象sは、4つの側面
a,b,c,d及び上面eを有しており、図18ないし
図21に方向D1ないしD4から撮影したときの映像を
夫々示している。In such a conventional image display method, since a desired observation direction depends on the direction at the time of photographing, an image viewed from an arbitrary viewpoint cannot be reproduced. FIG. 17 shows an example of a shooting situation by the conventional image display method. In this example, the same camera (digital camera) C captures a substantially cuboid-shaped imaging target s from each of a plurality of different positions (four locations) around the same. That is, camera C
, The photographing target s can be moved in four different directions (D1, D2, D
Shoot from 3, D4). The photographing target s has four side surfaces a, b, c, d and a top surface e, and FIGS. 18 to 21 show images when photographed from directions D1 to D4, respectively.
【0004】この従来の画像表示法では、例えば、方向
D5(図17中に一点鎖線で示す)からの映像を観たい
場合、この方向D5に最も近い方向から観た映像即ち方
向D1から観た映像(つまりカメラCにより方向D1か
ら撮影した撮影対象sの映像)がモニター画面等に表示
される。したがって、方向D5から観た映像は再現され
ない。In this conventional image display method, for example, when it is desired to view an image from a direction D5 (indicated by a dashed line in FIG. 17), an image viewed from a direction closest to the direction D5, that is, from the direction D1. The video (that is, the video of the shooting target s captured from the direction D1 by the camera C) is displayed on a monitor screen or the like. Therefore, the image viewed from the direction D5 is not reproduced.
【0005】[0005]
【発明の目的】本発明は、被写体の3次元画像を、撮像
した2次元画像から任意の視点から観た画像としてモニ
ター画面上にリアルに再現できる、ステレオ写真撮影に
よる3次元画像表示方法及び装置を提供することを目的
とする。SUMMARY OF THE INVENTION An object of the present invention is to provide a method and apparatus for displaying a three-dimensional image by stereo photography, which can realistically reproduce a three-dimensional image of a subject from a captured two-dimensional image as an image viewed from an arbitrary viewpoint on a monitor screen. The purpose is to provide.
【0006】[0006]
【発明の概要】本発明のステレオ写真撮影による3次元
画像表示方法は、目標の撮影対象に関する一対のステレ
オ画像を、複数の異なる視点から複数対得るステップ
と;この得られた複数対のステレオ画像の各対のステレ
オ画像に関して、該各対のステレオ画像のデータを基
に、上記撮影対象の各ポイントのステレオ画像の一方に
おける視点原点からの距離を求めてポイント距離データ
群を得るステップと;上記各対のステレオ画像に関し
て、視点原点を定めた上記一方のステレオ画像に関する
上記ポイント距離データ群を、所定の点を原点とする単
一の基準座標に変換するステップと;視点原点を定めた
上記一方のステレオ画像において、一つの面を構成する
領域の境界を各領域毎に定めるステップと;異なる視点
間で得られた複数の上記基準座標間において、上記境界
によって定まる領域同士を比較して同一の領域であるか
否かを判定するステップと;この判定によって同一であ
ると判定された各領域とその境界に含まれる上記ポイン
ト距離データ群を基に、各領域を補間するような曲面を
各領域毎に生成するステップと;この生成した複数の曲
面上の各々に、上記各対のステレオ画像のうち投射面積
が最大となる視点からの一対のステレオ画像の上記一方
のステレオ画像の対応する画素を画素単位で貼り付けて
上記撮影対象の3次元画像を生成するステップと;上記
複数の異なる視点から、希望される観察方向に最も近い
視点を選択するステップと;この選択した視点から得た
上記複数の曲面からなる3次元画像について、該3次元
画像を任意の観察視点から観た場合における上記複数の
曲面の各々の形状を計算するステップと;を有すること
を特徴としている。SUMMARY OF THE INVENTION A method of displaying a three-dimensional image by stereo photography according to the present invention includes the steps of obtaining a plurality of pairs of a pair of stereo images of a target object from a plurality of different viewpoints; Obtaining a point distance data group by obtaining a distance from a viewpoint origin in one of the stereo images of each point of the photographing object based on the data of the stereo image of each pair, for each pair of stereo images; For each pair of stereo images, converting the point distance data group relating to the one stereo image defining the viewpoint origin to a single reference coordinate having a predetermined point as the origin; Determining the boundaries of the regions constituting one surface for each region in the stereo image of the above; and a plurality of the above obtained between different viewpoints A step of comparing regions determined by the boundary between quasi-coordinates to determine whether they are the same region; each region determined to be the same by this determination and the point distance included in the boundary Generating a curved surface for interpolating each region on the basis of the data group for each region; and providing, on each of the plurality of generated curved surfaces, a viewpoint in which the projected area of the pair of stereo images is the largest. Generating a three-dimensional image of the object to be photographed by pasting the corresponding pixels of the one stereo image of the pair of stereo images from each other on a pixel-by-pixel basis; A step of selecting a close viewpoint; with respect to the three-dimensional image composed of the plurality of curved surfaces obtained from the selected viewpoint, when the three-dimensional image is viewed from any observation viewpoint. It is characterized by having: a step of calculating a shape of each of the plurality of curved surfaces.
【0007】また本発明のステレオ写真撮影による3次
元画像表示装置は、目標の撮影対象に関する一対のステ
レオ画像を、複数の異なる視点から複数対得る手段と;
この得られた複数対のステレオ画像の各対のステレオ画
像に関して、該各対のステレオ画像のデータを基に、上
記撮影対象の各ポイントのステレオ画像の一方における
視点原点からの距離を求めてポイント距離データ群を得
る手段と;上記各対のステレオ画像に関して、視点原点
を定めた上記一方のステレオ画像に関する上記ポイント
距離データ群を、所定の点を原点とする単一の基準座標
に変換する手段と;視点原点を定めた上記一方のステレ
オ画像において、一つの面を構成する領域の境界を各領
域毎に定める手段と;異なる視点間で得られた複数の上
記基準座標間において、上記境界によって定まる領域同
士を比較して同一の領域であるか否かを判定する手段
と;この判定によって同一であると判定された各領域と
その境界に含まれる上記ポイント距離データ群を基に、
各領域を補間するような曲面を各領域毎に生成する手段
と;この生成した複数の曲面上の各々に、上記各対のス
テレオ画像のうち投射面積が最大となる視点からの一対
のステレオ画像の上記一方のステレオ画像の対応する画
素を画素単位で貼り付けて上記撮影対象の3次元画像を
生成する手段と;上記複数の異なる視点から、希望され
る観察方向に最も近い視点を選択する手段と;この選択
した視点から得た上記複数の曲面からなる3次元画像に
ついて、該3次元画像を任意の観察視点から観た場合に
おける上記複数の曲面の各々の形状を計算する手段と;
を有することを特徴としている。Further, the three-dimensional image display apparatus using stereo photography according to the present invention includes: means for obtaining a plurality of pairs of stereo images relating to a target photographing object from a plurality of different viewpoints;
For each pair of stereo images obtained from the plurality of pairs of stereo images, the distance from one viewpoint of the stereo image of each of the shooting target points to the point is determined based on the data of each pair of stereo images. Means for obtaining a distance data group; means for converting the point distance data group for the one stereo image defining the viewpoint origin for each pair of stereo images into a single reference coordinate having a predetermined point as the origin Means for determining, for each region, a boundary of a region constituting one surface in the one stereo image in which the viewpoint origin is determined; and a plurality of reference coordinates obtained between different viewpoints, Means for comparing the determined areas with each other to determine whether they are the same area; each area determined to be the same by this determination and included in its boundary Based on the serial point distance data group,
Means for generating, for each region, a curved surface for interpolating each region; and a pair of stereo images from the viewpoint where the projected area is the largest of the pair of stereo images on each of the plurality of generated curved surfaces. Means for generating a three-dimensional image of the object to be photographed by pasting corresponding pixels of the one stereo image in pixel units; means for selecting a viewpoint closest to a desired observation direction from the plurality of different viewpoints Means for calculating a shape of each of the plurality of curved surfaces when the three-dimensional image is viewed from an arbitrary observation viewpoint with respect to the three-dimensional image formed of the plurality of curved surfaces obtained from the selected viewpoint;
It is characterized by having.
【0008】[0008]
【発明の実施の形態】以下図示実施形態に基づいて本発
明を説明する。図1は、本発明を適用した3次元画像表
示装置の一実施形態のシステム構成を示している。本装
置は、該装置に係る制御全般を司るCPU12と、この
CPU12に電気的に接続されたデジタルカメラインタ
ーフェイス11と、このインターフェイス11に接続さ
れたステレオデジタルカメラ10とを有している。また
本装置は、CPU12に夫々電気的に接続された、RA
M13と、ROM14と、キーボード15と、マウス1
6と、CRT17とを有している。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below based on illustrated embodiments. FIG. 1 shows a system configuration of an embodiment of a three-dimensional image display device to which the present invention is applied. This device has a CPU 12 that controls the entire control of the device, a digital camera interface 11 electrically connected to the CPU 12, and a stereo digital camera 10 connected to the interface 11. In addition, the present apparatus has RAs electrically connected to the CPU 12, respectively.
M13, ROM 14, keyboard 15, mouse 1
6 and a CRT 17.
【0009】ステレオデジタルカメラ10は、互いの撮
影光軸が一定距離離間された一対のデジタルカメラ(デ
ジタルスチルカメラ)10a,10b(図4参照)から
なり、目標の撮影対象(被写体、背景等を含む)に関す
る一対のステレオ画像を、複数の異なる視点(視点1,
視点2,・・・,視点n)の各々から撮影する。各デジ
タルカメラ10a,10bは、撮像素子としてCCDを
用い、撮像後要求に応じて、得られた画像データ(デジ
タル画像信号)をシリアルでインターフェイス11に出
力する。The stereo digital camera 10 is composed of a pair of digital cameras (digital still cameras) 10a and 10b (see FIG. 4) whose photographing optical axes are separated from each other by a fixed distance. Are included in a plurality of different viewpoints (viewpoint 1, viewpoint 1).
An image is taken from each of the viewpoints 2,..., Viewpoint n). Each of the digital cameras 10a and 10b uses a CCD as an image sensor, and outputs the obtained image data (digital image signal) to the interface 11 in a serial manner in response to a request after imaging.
【0010】このインターフェイス11に出力された画
像データは、CPU12を介してRAM13に一旦記憶
され、続いてCPU12が、ROM14に予め記憶され
た所定の制御プログラム、キーボード15やマウス16
から入力されたコマンド等に従ってRAM13に記憶し
た画像データに所定の画像処理(立体画像処理)を施
し、その後CPU12はこの画像処理を施した画像デー
タをCRT17に映像信号として出力して該CRT17
上に立体像を表示させる。The image data output to the interface 11 is temporarily stored in a RAM 13 via a CPU 12, and subsequently, a predetermined control program, a keyboard 15 and a mouse 16
The CPU 12 performs predetermined image processing (stereoscopic image processing) on the image data stored in the RAM 13 in accordance with a command or the like input from the CRT 17, and then outputs the image data on which the image processing has been performed to the CRT 17 as a video signal.
Display a stereoscopic image on top.
【0011】図2及び図3は、CPU12の処理動作を
示すフローチャートを示している。以下、このフローチ
ャートに基づいてCPU12の処理動作を説明する。FIGS. 2 and 3 are flowcharts showing the processing operation of the CPU 12. Hereinafter, the processing operation of the CPU 12 will be described based on this flowchart.
【0012】先ず、複数の異なる視点(視点1,視点
2,・・・,視点n)の各々においてステレオデジタル
カメラ10により撮像した各ステレオ写真の画像データ
(ステレオ画像データ)を取得する(ステップS1
0)。図4は、この画像データ入力時の撮影の様子を示
す。図5及び図6は、図4に示す視点1からの撮影で得
た一対のステレオ画像データを示しており、図7及び図
8は、図4に示す視点2からの撮影で得た一対のステレ
オ画像データを示している。また図9及び図10は、図
4に示す視点nからの撮影で得た一対のステレオ画像デ
ータを示している。First, at each of a plurality of different viewpoints (viewpoint 1, viewpoint 2,..., Viewpoint n), image data (stereo image data) of each stereo photograph taken by the stereo digital camera 10 is obtained (step S1).
0). FIG. 4 shows a state of shooting at the time of inputting the image data. 5 and 6 show a pair of stereo image data obtained by shooting from the viewpoint 1 shown in FIG. 4, and FIGS. 7 and 8 show a pair of stereo image data obtained by shooting from the viewpoint 2 shown in FIG. 3 shows stereo image data. 9 and 10 show a pair of stereo image data obtained by shooting from the viewpoint n shown in FIG.
【0013】図4に示すように、目標の撮影対象は通
常、被写体S、背景B、及び地面、床面、撮影台上面等
の底面Gを含んでいる。図5、図7及び図9の各図に示
す画像D1は、デジタルカメラ10aにより得られた図
4に示す撮影対象の画像(画像データ)であり、図6、
図8及び図10の各図に示す画像D2はデジタルカメラ
10bにより得られた図4に示す撮影対象の画像(画像
データ)である。本装置の画像処理は、各視点で得られ
たステレオ画像に関し、画像D1をメイン画像とし、画
像D2をサブ画像として扱う。As shown in FIG. 4, a target photographing target usually includes a subject S, a background B, and a bottom surface G such as the ground, a floor surface, and a photographing table upper surface. An image D1 shown in each of FIGS. 5, 7, and 9 is an image (image data) of the photographing target shown in FIG. 4 obtained by the digital camera 10a.
An image D2 shown in each of FIGS. 8 and 10 is an image (image data) of the shooting target shown in FIG. 4 obtained by the digital camera 10b. The image processing of the present apparatus handles the image D1 as a main image and the image D2 as a sub-image with respect to a stereo image obtained at each viewpoint.
【0014】ステップS10に続くステップS12から
ステップS18までの処理は、複数の異なる視点(視点
1,視点2,・・・,視点n)の各々で得た一対のステ
レオ画像データ(画像データD1,D2)の各々に関し
て、視点1,視点2,・・・,視点nの視点順に行われ
る。従ってステップS10の処理後は、先ず視点1から
の撮影で得た一対のステレオ画像データ(画像データD
1,D2)に関してステップS12からS18までの処
理が行われる。The processing from step S12 to step S18 following step S10 is performed by a pair of stereo image data (image data D1, D1) obtained at each of a plurality of different viewpoints (viewpoint 1, viewpoint 2,..., Viewpoint n). D2) are performed in the order of viewpoint 1, viewpoint 2,..., Viewpoint n. Therefore, after the processing in step S10, first, a pair of stereo image data (image data D
(1, D2), the processes from steps S12 to S18 are performed.
【0015】ステップS12では、得られた一対のステ
レオ画像データ(画像データD1,D2)に関してディ
ストーション補正(歪補正)処理を行う。その後、一対
の画像データD1,D2を基に、相関法により撮影対象
の各ポイントのメイン画像D1における視点原点からの
距離を求める(ステップS14)。In step S12, a distortion correction (distortion correction) process is performed on the obtained pair of stereo image data (image data D1 and D2). After that, based on the pair of image data D1 and D2, the distance from the viewpoint origin in the main image D1 of each point to be photographed is obtained by the correlation method (step S14).
【0016】続いて、メイン画像である画像D1におい
て、一つの面を構成する領域の境界を各領域毎に定め、
各境界上の各画素の座標データ(CCD上座標データま
たはピクセル座標データ)を取得し、この得られた座標
データを、所定の点を原点とする3次元直交座標(XY
Z座標)に変換する(ステップS16)。Subsequently, in the image D1 which is the main image, the boundaries of the regions constituting one surface are determined for each region,
The coordinate data (CCD coordinate data or pixel coordinate data) of each pixel on each boundary is obtained, and the obtained coordinate data is converted into three-dimensional rectangular coordinates (XY
(Z coordinate) (step S16).
【0017】その後、撮影対象の各ポイントの距離デー
タ(ポイント距離データ即ち座標データ)の編集修正を
行う(ステップS18)。この編集修正処理では、各領
域とその境界に含まれるポイント距離データ群を補間す
る補間距離データ群を作成する。図11の(1)〜
(7)は、この補間距離データ群を含む各領域(領域
a,b,c,d,e,f,g)の距離データ群(視点1
から得た距離データ群)を3次元直交座標で夫々示して
いる。After that, the distance data (point distance data, that is, coordinate data) of each point of the photographing object is edited and corrected (step S18). In this editing correction processing, an interpolated distance data group for interpolating the point distance data group included in each area and its boundary is created. (1)-of FIG.
(7) is a distance data group (viewpoint 1) of each area (areas a, b, c, d, e, f, g) including this interpolation distance data group.
Are shown in three-dimensional orthogonal coordinates.
【0018】次に、各視点(視点1,視点2,・・・,
視点n)での一対の画像データD1,D2の全てに関し
てステップS12からステップS18の処理が行われた
か否かを判断する(ステップS20)。未だ全てに関し
て行われていない場合にはステップS12に戻り、次の
視点(例えば視点1の次は視点2)での一対の画像デー
タD1,D2に関してステップS12からステップS1
8の処理を実行し、全てに関して行われた場合には続く
ステップS22に進む。Next, each viewpoint (viewpoint 1, viewpoint 2,...,
It is determined whether the processing from step S12 to step S18 has been performed for all of the pair of image data D1 and D2 at the viewpoint n) (step S20). If not, the process returns to step S12, and the steps S12 to S1 are performed for a pair of image data D1 and D2 at the next viewpoint (for example, viewpoint 2 after viewpoint 1).
8 is performed, and if all the processes have been performed, the process proceeds to the subsequent step S22.
【0019】つまりステップS12からステップS18
の処理は、視点1,視点2,・・・,視点nの順で各視
点で得た一対のステレオ画像データに関して同様に行わ
れる。よってステップS16の処理において、視点1〜
視点nの各視点のメイン画像D1の座標データに関し、
各境界上の各画素の座標データが単一の3次元直交座標
に変換される。That is, from step S12 to step S18
Is performed similarly for a pair of stereo image data obtained at each viewpoint in the order of viewpoint 1, viewpoint 2,..., Viewpoint n. Therefore, in the processing of step S16, viewpoints 1 to
Regarding the coordinate data of the main image D1 of each viewpoint of the viewpoint n,
The coordinate data of each pixel on each boundary is converted into a single three-dimensional orthogonal coordinate.
【0020】ステップS12からステップS18の処理
により、視点1に関して補間距離データ群を含む各領域
の距離データ群を取得した後は、同様の処理により視点
2に関して補間距離データ群を含む各領域の距離データ
群を得る。図12の(1)〜(7)は、この補間距離デ
ータ群を含む各領域(領域h,b,c,d,e,f,
i)の距離データ群(視点2から得た距離データ群)を
3次元直交座標で夫々示している。以後、視点nまでの
各視点に関して同様に距離データ群を得る。After obtaining the distance data group of each area including the interpolation distance data group for the viewpoint 1 by the processing of steps S12 to S18, the distance of each area including the interpolation distance data group for the viewpoint 2 is obtained by the same processing. Get the data group. (1) to (7) of FIG. 12 show each area (areas h, b, c, d, e, f,
The distance data group (i) (the distance data group obtained from the viewpoint 2) is indicated by three-dimensional orthogonal coordinates. Thereafter, a distance data group is similarly obtained for each viewpoint up to viewpoint n.
【0021】なお、図11(1)に示す領域aと図12
(1)に示す領域hは、図4ないし図10の各図に示す
背景(背景物体)Bの左右の側部に相当する領域であ
る。したがって、図11に示す視点1から得た画像の複
数の領域中には、領域aと反対側の領域hは表われない
ので領域hは含まれておらず、また図12に示す視点2
から得た画像の複数の領域中には、領域hと反対側の領
域aは表われないので領域aは含まれていない。同様
に、図11(7)に示す領域gと図12(7)に示す領
域iは、図4ないし図10の各図に示す撮影台等の底面
Gの左右の側部に相当する領域である。したがって、図
11に示す視点1から得た画像の複数の領域中には、領
域gと反対側の領域iは表われないので領域iは含まれ
ておらず、また図12に示す視点2から得た画像の複数
の領域中には、領域iと反対側の領域gは表われないの
で領域gは含まれていない。It should be noted that the region a shown in FIG.
The region h shown in (1) is a region corresponding to the left and right sides of the background (background object) B shown in each of FIGS. Therefore, the region h is not included in the plurality of regions of the image obtained from the viewpoint 1 shown in FIG.
Since the region a on the side opposite to the region h is not shown in the plurality of regions of the image obtained from, the region a is not included. Similarly, a region g shown in FIG. 11 (7) and a region i shown in FIG. 12 (7) are regions corresponding to the left and right sides of the bottom surface G of the imaging table or the like shown in each of FIGS. is there. Therefore, since the region i on the opposite side to the region g is not shown in the plurality of regions of the image obtained from the viewpoint 1 shown in FIG. 11, the region i is not included, and from the viewpoint 2 shown in FIG. The region g is not included in the plurality of regions of the obtained image because the region g opposite to the region i is not shown.
【0022】続くステップS22では、各視点(視点
1,視点2,・・・,視点n)間において、互いの領域
を夫々比較して同一の領域を判定する。例えば視点1と
視点2の画像データ間では、図11に示す視点1の各領
域と図12に示す視点2の各領域とが夫々比較される。
この結果、視点1の領域a,g及び視点2の領域h,i
の各々は同一な領域を持たない領域と判定され、視点1
の領域bは視点2の領域bと同一な領域と判定され、視
点1の領域cは視点2の領域cと同一な領域と判定さ
れ、同様に視点1の領域d,e,fの各々は視点2の対
応の領域d,e,fと同一な領域と判定される。In the following step S22, the same region is determined by comparing the respective regions between the viewpoints (viewpoint 1, viewpoint 2,..., Viewpoint n). For example, between the image data of viewpoint 1 and viewpoint 2, each region of viewpoint 1 shown in FIG. 11 is compared with each region of viewpoint 2 shown in FIG.
As a result, the areas a and g of the viewpoint 1 and the areas h and i of the viewpoint 2
Are determined not to have the same region, and the viewpoint 1
Is determined to be the same as the region b of the viewpoint 2, the region c of the viewpoint 1 is determined to be the same as the region c of the viewpoint 2, and similarly, each of the regions d, e, and f of the viewpoint 1 is The area is determined to be the same as the corresponding area d, e, f of the viewpoint 2.
【0023】この判定により同一の領域と判定された領
域(b,c,d,e,f)及び同一領域を持たない領域
(a,g,h,i)の各領域毎のポイント距離データ群
と境界データとを基に、全視点の各々に関して、各領域
を補間するような曲面(補間曲面)を各領域毎に生成す
るための方程式を決定する(ステップS24)。そし
て、得られた方程式(各次数における係数値の列)と境
界データにより、メイン画像である画像D1の各画素
を、対応する補間曲面上に貼り付け、これによって現在
処理中である視点からの撮影対象の立体画像データ(3
次元画像)を作成する(ステップS26)。このとき、
生成する補間曲面上に、投射面積が最大となる視点のメ
イン画像D1の対応する画素を画素単位で貼り付け、こ
れによって撮影対象の立体画像データ(3次元画像)を
生成する。図13の(1)〜(9)は、補間距離データ
群を含む各領域a〜iの距離データ群(視点1と視点2
から得た距離データ群)を単一の3次元直交座標で夫々
示しており、図14の(1)〜(9)は、各領域a〜i
に関して補間曲面を生成した後の画像データを単一の3
次元直交座標で夫々示している。A point distance data group for each of the areas (b, c, d, e, f) determined to be the same area and the areas (a, g, h, i) not having the same area is determined. Based on and the boundary data, an equation for generating a curved surface (interpolated curved surface) for each region for each of all viewpoints is determined (step S24). Then, each pixel of the image D1, which is the main image, is pasted on the corresponding interpolated curved surface based on the obtained equation (a sequence of coefficient values in each order) and the boundary data. Stereoscopic image data (3
(Step S26). At this time,
The corresponding pixel of the main image D1 at the viewpoint having the largest projection area is pasted on a pixel-by-pixel basis on the generated interpolation curved surface, thereby generating stereoscopic image data (three-dimensional image) to be captured. (1) to (9) in FIG. 13 show distance data groups (viewpoint 1 and viewpoint 2) of each area a to i including the interpolation distance data group.
14 are respectively shown by a single three-dimensional orthogonal coordinate, and (1) to (9) in FIG.
The image data after generating the interpolation surface with respect to
They are shown in dimensional orthogonal coordinates.
【0024】その後、複数の視点(視点1,視点2,・
・・,視点n)のいずれか一つの視点(例えば視点1)
からの撮影で得た一対の画像データD1,D2を基に作
成された立体画像データが、映像信号としてCRT17
に出力されて該CRT17上に立体像として表示される
(ステップS28)。その後、ユーザがキーボード15
やマウス16を介して希望の視点による観察方向(CR
T17上に表示させる立体像の表示角度)を指定する
と、この指定した観察方向(観察視点)に最も近い視点
を複数の視点から選択する(ステップS30,S3
2)。そしてこの選択した視点による観察方向から撮影
対象を観た場合における各面の形状を計算し、この計算
結果に基づいて希望の観察方向から観た場合の立体像を
CRT17上に表示させる(ステップS34)。その
後、ユーザが、キーボード15やマウス16を介して希
望の観察方向を再度入力すると、ステップS32,S3
4の処理を再度実行して希望の視点による観察方向から
観た場合の立体像をCRT17上に表示させる。図15
は、ある観察方向から撮影対象を視た場合のCRT17
上に表示される立体像を示しており、図16は、図15
の観察方向とは異なる観察方向から撮影対象を視た場合
のCRT17上に表示される立体像を示している。Thereafter, a plurality of viewpoints (viewpoint 1, viewpoint 2,...)
.. any one of viewpoints (for example, viewpoint 1)
3D image data created based on a pair of image data D1 and D2 obtained by shooting from
And displayed as a stereoscopic image on the CRT 17 (step S28). Then, the user enters the keyboard 15
And the observation direction (CR
When a display angle of a stereoscopic image to be displayed on T17 is specified, a viewpoint closest to the specified observation direction (observation viewpoint) is selected from a plurality of viewpoints (Steps S30 and S3).
2). Then, the shape of each surface when the photographing target is viewed from the observation direction from the selected viewpoint is calculated, and a stereoscopic image when viewed from the desired observation direction is displayed on the CRT 17 based on the calculation result (step S34). ). Thereafter, when the user again inputs the desired observation direction via the keyboard 15 or the mouse 16, steps S32 and S3 are performed.
The processing of step 4 is executed again, and the stereoscopic image viewed from the observation direction from the desired viewpoint is displayed on the CRT 17. FIG.
Is a CRT 17 when the photographing target is viewed from a certain observation direction.
FIG. 16 shows the stereoscopic image displayed above, and FIG.
2 shows a stereoscopic image displayed on the CRT 17 when the photographing target is viewed from an observation direction different from the observation direction of FIG.
【0025】以上の処理によって、ステレオデジタルカ
メラ10で撮影された目標の撮影対象は、各デジタルカ
メラ10a,10bで撮像した2次元画像と同程度の解
像度でCRT17上にリアルに再現される。さらに、希
望される観察方向に最も近い視点からの画像データを選
択し、希望される観察方向から視た画像をこの選択した
画像データを基に表示するので、CRT17上に表示さ
れる撮影対象の影の部分が減少する。また、ステレオ写
真撮影時、多くの異なる視点から撮影対象を満遍なく撮
影すると、観察方向を変えてもCRT17上に表示され
る撮影対象に影の部分ができない。By the above processing, the target photographing target photographed by the stereo digital camera 10 is realistically reproduced on the CRT 17 with the same resolution as the two-dimensional images photographed by the digital cameras 10a and 10b. Further, image data from a viewpoint closest to the desired observation direction is selected, and an image viewed from the desired observation direction is displayed based on the selected image data. The shadow area is reduced. In addition, when stereoscopic photography is performed, if the photographing target is uniformly photographed from many different viewpoints, a shadow portion cannot be formed on the photographing target displayed on the CRT 17 even when the observation direction is changed.
【0026】[0026]
【発明の効果】以上のように、本発明によれば、被写体
の3次元画像を、撮像した2次元画像と同程度の解像度
でモニター画面上にリアルに再現でき、さらにステレオ
写真撮影の際に多くの異なる視点から撮影対象を満遍な
く撮影すれば、観察方向を変えてもCRT上に表示され
る撮影対象に影の部分ができない。As described above, according to the present invention, a three-dimensional image of a subject can be realistically reproduced on a monitor screen with the same resolution as a captured two-dimensional image. If the photographing target is photographed evenly from many different viewpoints, a shadow portion cannot be formed on the photographing target displayed on the CRT even if the observation direction is changed.
【図1】本発明を適用した3次元画像表示装置の実施形
態のシステム構成を示すブロック図である。FIG. 1 is a block diagram illustrating a system configuration of an embodiment of a three-dimensional image display device to which the present invention has been applied.
【図2】図1に示す3次元画像表示装置のCPUの動作
を示すフローチャート図である。FIG. 2 is a flowchart showing an operation of a CPU of the three-dimensional image display device shown in FIG.
【図3】図1に示す3次元画像表示装置のCPUの動作
を示すフローチャート図である。FIG. 3 is a flowchart illustrating an operation of a CPU of the three-dimensional image display device illustrated in FIG. 1;
【図4】3次元画像表示装置での画像データ入力の際の
撮影の様子を示す図である。FIG. 4 is a diagram showing a state of shooting when inputting image data in the three-dimensional image display device.
【図5】一対のデジタルカメラの一方による視点1から
の撮影で得らた画像データを示す図である。FIG. 5 is a diagram showing image data obtained by shooting from a viewpoint 1 by one of a pair of digital cameras.
【図6】一対のデジタルカメラの他方による視点1から
の撮影で得らた画像データを示す図である。FIG. 6 is a diagram showing image data obtained by shooting from the viewpoint 1 by the other of the pair of digital cameras.
【図7】一対のデジタルカメラの一方による視点2から
の撮影で得らた画像データを示す図である。FIG. 7 is a diagram showing image data obtained by shooting from a viewpoint 2 by one of a pair of digital cameras.
【図8】一対のデジタルカメラの他方による視点2から
の撮影で得らた画像データを示す図である。FIG. 8 is a diagram illustrating image data obtained by shooting from the viewpoint 2 by the other of the pair of digital cameras.
【図9】一対のデジタルカメラの一方による視点nから
の撮影で得らた画像データを示す図である。FIG. 9 is a diagram showing image data obtained by shooting from a viewpoint n by one of a pair of digital cameras.
【図10】一対のデジタルカメラの他方による視点nか
らの撮影で得らた画像データを示す図である。FIG. 10 is a diagram showing image data obtained by shooting from a viewpoint n by the other of a pair of digital cameras.
【図11】視点1からの画像データから得た、補間距離
データ群を含む各領域の距離データ群を3次元直交座標
で示す図である。FIG. 11 is a diagram showing, using three-dimensional rectangular coordinates, a distance data group of each region including an interpolation distance data group obtained from image data from a viewpoint 1;
【図12】視点2からの画像データから得た、補間距離
データ群を含む各領域の距離データ群を3次元直交座標
で示す図である。FIG. 12 is a diagram illustrating, using three-dimensional orthogonal coordinates, a distance data group of each region including an interpolation distance data group obtained from image data from a viewpoint 2.
【図13】視点1と視点2からの画像データから得た、
補間距離データ群を含む各領域の距離データ群を単一の
3次元直交座標で示す図である。FIG. 13 is obtained from image data from viewpoint 1 and viewpoint 2,
FIG. 6 is a diagram illustrating a distance data group of each region including an interpolation distance data group in a single three-dimensional orthogonal coordinate system.
【図14】各領域に関して補間曲面を生成した後の画像
データを単一の3次元直交座標で示す図である。FIG. 14 is a diagram illustrating image data after generating an interpolated curved surface for each region in a single three-dimensional orthogonal coordinate system.
【図15】ある観察方向から撮影対象を視た場合のCR
T上に表示される立体像を示す図である。FIG. 15 is a CR when a photographing target is viewed from a certain observation direction.
FIG. 9 is a diagram illustrating a stereoscopic image displayed on T.
【図16】図15の観察方向とは異なる観察方向から撮
影対象を視た場合のCRT上に表示される立体像を示す
図である。FIG. 16 is a diagram showing a stereoscopic image displayed on a CRT when the photographing target is viewed from an observation direction different from the observation direction in FIG.
【図17】従来の画像表示法による撮影状況を示す図で
ある。FIG. 17 is a diagram showing a shooting situation by a conventional image display method.
【図18】撮影対象を図17に示す方向D1から撮影し
たときの映像を示す図である。18 is a diagram illustrating an image when an object to be photographed is photographed from a direction D1 shown in FIG. 17;
【図19】撮影対象を図17に示す方向D2から撮影し
たときの映像を示す図である。FIG. 19 is a diagram showing a video when a shooting target is shot from a direction D2 shown in FIG. 17;
【図20】撮影対象を図17に示す方向D3から撮影し
たときの映像を示す図である。20 is a diagram showing an image when an object to be photographed is photographed from a direction D3 shown in FIG. 17;
【図21】撮影対象を図17に示す方向D4から撮影し
たときの映像を示す図である。21 is a diagram illustrating an image when an object to be photographed is photographed from a direction D4 shown in FIG. 17;
10 ステレオデジタルカメラ 10a 10b デジタルカメラ S 被写体 B 背景 G 底面 10 Stereo digital camera 10a 10b Digital camera S Subject B Background G Bottom
Claims (4)
画像を、複数の異なる視点から複数対得るステップと;
この得られた複数対のステレオ画像の各対のステレオ画
像に関して、該各対のステレオ画像のデータを基に、上
記撮影対象の各ポイントのステレオ画像の一方における
視点原点からの距離を求めてポイント距離データ群を得
るステップと;上記各対のステレオ画像に関して、視点
原点を定めた上記一方のステレオ画像に関する上記ポイ
ント距離データ群を、所定の点を原点とする単一の基準
座標に変換するステップと;視点原点を定めた上記一方
のステレオ画像において、一つの面を構成する領域の境
界を各領域毎に定めるステップと;異なる視点間で得ら
れた複数の上記基準座標間において、上記境界によって
定まる領域同士を比較して同一の領域であるか否かを判
定するステップと;この判定によって同一であると判定
された各領域とその境界に含まれる上記ポイント距離デ
ータ群を基に、各領域を補間するような曲面を各領域毎
に生成するステップと;この生成した複数の曲面上の各
々に、上記各対のステレオ画像のうち投射面積が最大と
なる視点からの一対のステレオ画像の上記一方のステレ
オ画像の対応する画素を画素単位で貼り付けて上記撮影
対象の3次元画像を生成するステップと;上記複数の異
なる視点から、希望される観察方向に最も近い視点を選
択するステップと;この選択した視点から得た上記複数
の曲面からなる3次元画像について、該3次元画像を任
意の観察視点から観た場合における上記複数の曲面の各
々の形状を計算するステップと;を有することを特徴と
する、ステレオ写真撮影による3次元画像表示方法。1. obtaining a plurality of pairs of stereo images of a target photographing object from a plurality of different viewpoints;
For each pair of stereo images obtained from the plurality of pairs of stereo images, the distance from one viewpoint of the stereo image of each of the shooting target points to the point is determined based on the data of each pair of stereo images. Obtaining a distance data group; and converting the point distance data group relating to the one stereo image defining the viewpoint origin for each pair of stereo images into a single reference coordinate having a predetermined point as the origin. And; in the one stereo image defining the viewpoint origin, defining a boundary of an area constituting one surface for each area; and, between a plurality of reference coordinates obtained between different viewpoints, Comparing the determined areas with each other to determine whether they are the same area; and determining each area determined to be the same by this determination. Generating, for each region, a curved surface that interpolates each region based on the point distance data group included in the boundary; and on each of the plurality of generated curved surfaces, A step of pasting corresponding pixels of the one stereo image of the pair of stereo images from the viewpoint at which the projection area is maximized in pixel units to generate a three-dimensional image of the imaging target; from the plurality of different viewpoints, Selecting a viewpoint closest to a desired observation direction; and, for a three-dimensional image composed of the plurality of curved surfaces obtained from the selected viewpoint, the plurality of viewpoints when the three-dimensional image is viewed from any observation viewpoint. Calculating a shape of each of the curved surfaces; a method for displaying a three-dimensional image by stereo photography.
に、上記同一の領域であるか否かを判定するステップに
よって同一な領域が無いと判定された各領域に関し、該
各領域とその境界に含まれる上記ポイント距離データ群
を基に、各領域を補間するような曲面を各領域毎に生成
するステップを有する、ステレオ写真撮影による3次元
画像表示方法。2. The method according to claim 1, further comprising the step of determining whether or not there is the same area by the step of determining whether or not there is the same area. A three-dimensional image display method using stereo photography, comprising a step of generating a curved surface for interpolating each region for each region based on the included point distance data group.
画像を、複数の異なる視点から複数対得る手段と;この
得られた複数対のステレオ画像の各対のステレオ画像に
関して、該各対のステレオ画像のデータを基に、上記撮
影対象の各ポイントのステレオ画像の一方における視点
原点からの距離を求めてポイント距離データ群を得る手
段と;上記各対のステレオ画像に関して、視点原点を定
めた上記一方のステレオ画像に関する上記ポイント距離
データ群を、所定の点を原点とする単一の基準座標に変
換する手段と;視点原点を定めた上記一方のステレオ画
像において、一つの面を構成する領域の境界を各領域毎
に定める手段と;異なる視点間で得られた複数の上記基
準座標間において、上記境界によって定まる領域同士を
比較して同一の領域であるか否かを判定する手段と;こ
の判定によって同一であると判定された各領域とその境
界に含まれる上記ポイント距離データ群を基に、各領域
を補間するような曲面を各領域毎に生成する手段と;こ
の生成した複数の曲面上の各々に、上記各対のステレオ
画像のうち投射面積が最大となる視点からの一対のステ
レオ画像の上記一方のステレオ画像の対応する画素を画
素単位で貼り付けて上記撮影対象の3次元画像を生成す
る手段と;上記複数の異なる視点から、希望される観察
方向に最も近い視点を選択する手段と;この選択した視
点から得た上記複数の曲面からなる3次元画像につい
て、該3次元画像を任意の観察視点から観た場合におけ
る上記複数の曲面の各々の形状を計算する手段と;を有
することを特徴とする、ステレオ写真撮影による3次元
画像表示装置。3. A means for obtaining a plurality of pairs of stereo images related to a target photographing object from a plurality of different viewpoints; and for each pair of stereo images obtained from the obtained plurality of pairs of stereo images, each pair of stereo images. Means for obtaining a point distance data group by obtaining a distance from the viewpoint origin in one of the stereo images of each point of the photographing object based on the data of the above; Means for converting the point distance data group relating to the stereo image into a single reference coordinate having a predetermined point as the origin; and a boundary of an area constituting one surface in the one stereo image defining the viewpoint origin. Means for determining each of the regions; and between the plurality of reference coordinates obtained between different viewpoints, the regions determined by the boundary are compared with each other to be the same region Means for determining whether or not each of the areas is determined to be the same; and a curved surface for interpolating each area based on each of the areas determined to be the same and the above-mentioned point distance data group included in the boundary. Means for generating, on each of the generated plurality of curved surfaces, a corresponding pixel of the one stereo image of the pair of stereo images from the viewpoint where the projected area is the largest among the pair of stereo images. Means for generating a three-dimensional image of the photographing target by pasting in units; means for selecting a viewpoint closest to a desired observation direction from the plurality of different viewpoints; and a plurality of viewpoints obtained from the selected viewpoint. Means for calculating the shape of each of the plurality of curved surfaces when the three-dimensional image is viewed from an arbitrary observation viewpoint for a three-dimensional image formed of a curved surface. 3-dimensional image display apparatus according to a.
に、上記同一の領域であるか否かを判定する手段によっ
て同一な領域が無いと判定された各領域に関し、該各領
域とその境界に含まれる上記ポイント距離データ群を基
に、各領域を補間するような曲面を各領域毎に生成する
手段を有する、ステレオ写真撮影による3次元画像表示
装置。4. The apparatus according to claim 3, further comprising, for each of the areas determined to have no identical area by the means for determining whether the area is the same area, the area and its boundary. A three-dimensional image display apparatus using stereo photography, comprising: means for generating a curved surface for interpolating each area for each area based on the included point distance data group.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10163924A JPH11355806A (en) | 1998-06-11 | 1998-06-11 | Method and device for three-dimensional image display by stereoscopic image photographing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10163924A JPH11355806A (en) | 1998-06-11 | 1998-06-11 | Method and device for three-dimensional image display by stereoscopic image photographing |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11355806A true JPH11355806A (en) | 1999-12-24 |
Family
ID=15783418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10163924A Withdrawn JPH11355806A (en) | 1998-06-11 | 1998-06-11 | Method and device for three-dimensional image display by stereoscopic image photographing |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11355806A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011522300A (en) * | 2007-12-27 | 2011-07-28 | サーブ アクティエボラーグ | Method for displaying virtual images |
-
1998
- 1998-06-11 JP JP10163924A patent/JPH11355806A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011522300A (en) * | 2007-12-27 | 2011-07-28 | サーブ アクティエボラーグ | Method for displaying virtual images |
US9338423B2 (en) | 2007-12-27 | 2016-05-10 | Saab Ab | Method for displaying a virtual image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7215364B2 (en) | Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array | |
JP4942221B2 (en) | High resolution virtual focal plane image generation method | |
JP4828779B2 (en) | High-speed digital pan tilt zoom video | |
KR102225617B1 (en) | Method of setting algorithm for image registration | |
JP4886716B2 (en) | Image processing apparatus and method, and program | |
JP2010278878A (en) | Stereoscopic image device and display image switching method thereof | |
JP2009524349A (en) | Adjustment method of stereoscopic display system | |
JPH07294215A (en) | Method and apparatus for processing image | |
JP2003219271A (en) | System for synthesizing multipoint virtual studio | |
JPH07287761A (en) | Device and method for processing picture | |
US10349040B2 (en) | Storing data retrieved from different sensors for generating a 3-D image | |
KR102041544B1 (en) | 3d thermal distribution display device using stereo camera and thermal camera | |
JP6656035B2 (en) | Image processing apparatus, imaging apparatus, and control method for image processing apparatus | |
JP5735846B2 (en) | Image processing apparatus and method | |
JPH05303629A (en) | Method for synthesizing shape | |
JP2002077947A (en) | Method for correcting stereoscopic image and stereoscopic image apparatus using the same | |
US8731327B2 (en) | Image processing system and image processing method | |
JP2005063041A (en) | Three-dimensional modeling apparatus, method, and program | |
CN117196955A (en) | Panoramic image stitching method and terminal | |
JP7416573B2 (en) | Stereoscopic image generation device and its program | |
JPH1013860A (en) | Stereoscopic picture interpolating device and its method | |
JPH09305796A (en) | Image information processor | |
CN108307179A (en) | A kind of method of 3D three-dimensional imagings | |
JP3924576B2 (en) | Three-dimensional measurement method and apparatus by photogrammetry | |
JPH11150741A (en) | Three-dimensional picture displaying method and its device by stereo photographing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050323 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070612 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20070801 |