JP2001324310A - Method, device and system for preparing three- dimensional data - Google Patents

Method, device and system for preparing three- dimensional data

Info

Publication number
JP2001324310A
JP2001324310A JP2000130350A JP2000130350A JP2001324310A JP 2001324310 A JP2001324310 A JP 2001324310A JP 2000130350 A JP2000130350 A JP 2000130350A JP 2000130350 A JP2000130350 A JP 2000130350A JP 2001324310 A JP2001324310 A JP 2001324310A
Authority
JP
Japan
Prior art keywords
pixels
pixel
screen
same
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000130350A
Other languages
Japanese (ja)
Inventor
Kazuhiro Shiina
一博 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2000130350A priority Critical patent/JP2001324310A/en
Publication of JP2001324310A publication Critical patent/JP2001324310A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method, a device and a system for preparing three- dimensional data, capable of providing accurate three-dimensional data from a plurality of arbitrarily photographed images. SOLUTION: A plurality of static images of a space with an unknown space structure are captured by a computer 14 from a plurality of cameras 10 and 12. The positions of observation points to the static images are computed from the relative positions of not more than two pixels, or not more than eight pixels, having only a known correspondence with three or four pixels having known coordinates in the plurality of images. The positional relations of the plurality of images relative to the observation points are found in the same coordinate system to prepare three-dimensional data on a photographed object. Pictures comprising the images are put in the same coordinate system and the plurality of images photographed from different positions are each divided into a plurality of image areas, thus determining one-to-one correspondences between the image areas in each of the plurality of images.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、同一撮影対象を写
した複数の画像から、撮影対象の立体データを作成する
モデリング方法及び装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a modeling method and apparatus for creating three-dimensional data of a photographing object from a plurality of images of the same photographing object.

【0002】[0002]

【従来の技術】従来の技術では、撮影対象の立体データ
を高い精度で安価に作成する方法はなかった。本発明者
は、特開2000−76453号公報に開示される「立
体データ作成方法及び装置」(以下、単に「立体データ
作成方法」という)により、空間構造が未知の撮影対象
空間の立体データを作成する装置、及び設計図書のない
任意の物体の外観を立体データ化する装置を発案してい
る。これによって、先の課題で求められる精度の高い立
体データの作成を安価な装置で行うことが可能となっ
た。しかしこの方法でも、スリット光源を撮影対象に照
射する場合は、縦方向と横方向にそれぞれスライドする
こととしていた。また、任意に撮影した画像から立体デ
ータを作成するに際しては、各部位毎に予め別に用意し
た立体データモデルを用いる必要があった。
2. Description of the Related Art In the prior art, there has been no method for inexpensively creating three-dimensional data to be photographed with high accuracy. The inventor of the present invention disclosed a stereoscopic data creation method and apparatus disclosed in Japanese Patent Application Laid-Open No. 2000-76453 (hereinafter simply referred to as “stereoscopic data creation method”) to convert stereoscopic data of an imaging target space whose spatial structure is unknown. We have devised a device to create and a device to convert the appearance of any object without a design document into three-dimensional data. This makes it possible to create high-precision three-dimensional data required by the above-mentioned problem with an inexpensive device. However, even in this method, when irradiating the slit light source to the object to be photographed, the object is slid vertically and horizontally. In addition, when creating stereoscopic data from an arbitrarily photographed image, it is necessary to use a stereoscopic data model separately prepared in advance for each part.

【0003】また、一般の人が普通のカメラを用いて室
内や屋外空間を撮影した1枚ないし複数の静止画像から
近似的に立体データを作成する方法は従来幾通りか考
案、実用化されてきたが、高い精度で立体データを作成
することはできなかった。
[0003] Further, a method of approximately creating three-dimensional data from one or a plurality of still images obtained by photographing an indoor or outdoor space using an ordinary camera by an ordinary person has been devised and put into practical use in several ways. However, three-dimensional data could not be created with high accuracy.

【0004】また、特開平11−96374号公報に
は、複数のカメラで同一対象を撮影し立体データを作成
する方法が開示されている。しかし全く任意に撮影され
た画像から視点の位置を割り出すことはできなく、また
インテリアや外部空間を写した画像から画面と視点の位
置を割り出す場合は、誤差が大きくならざるを得ないこ
とから、画素単位の照合を行い対象空間の立体データを
作成するには、精度的に困難であった。
Japanese Patent Application Laid-Open No. H11-96374 discloses a method in which the same object is photographed by a plurality of cameras to create three-dimensional data. However, it is not possible to determine the position of the viewpoint from an image taken arbitrarily, and if the position of the screen and viewpoint is determined from the image of the interior or external space, the error must be large, It is difficult in terms of accuracy to perform collation in pixel units and create three-dimensional data in the target space.

【0005】特に、室内空間や屋外を撮影した画像で
は、0022項に例示したような微細な模様、凹凸を持
つ撮影対象物が映し出される可能性が高く、撮影対象空
間が不連続な多数の対象物によって複雑に構成されてお
り、全く同一色データの画素も多数生じがちで、単純に
ボクセル空間に投票を行う方法では、その推定条件が有
効でない危険性が生じる。又、樹木や柄物のソファ、壁
紙など、細かな模様を持つ撮影対象物も多く、画素数が
有限個であることに起因して画素単位で対応関係を照合
することに無理が生じる場合が多い。その一方、人の顔
などと異なり、多様な色データの画素によって構成され
るため、一の部位の画像領域単位での対応付けが容易な
場合が多い。従って室内、屋外空間の立体データ化に際
しては、以上のような特性を踏まえたシステムが望まれ
る。
[0005] Particularly, in an image photographed in an indoor space or outdoors, a photographing object having a fine pattern and unevenness as exemplified in item 0022 is highly likely to be projected, and a large number of objects whose photographing space is discontinuous are high. It is likely that a large number of pixels having exactly the same color data are likely to be generated, and the method of simply voting in the voxel space poses a risk that the estimation conditions are not effective. In addition, there are many objects to be photographed having fine patterns, such as trees, patterned sofas, and wallpaper, and it is often difficult to collate the correspondence in pixel units due to the limited number of pixels. . On the other hand, unlike a human face or the like, since it is composed of pixels of various color data, it is often easy to associate one part in image region units. Therefore, when converting three-dimensional data into indoor and outdoor spaces, a system based on the above characteristics is desired.

【0006】[0006]

【発明が解決しようとする課題】本発明は、先の「立体
データ作成方法」を補強し、以下に示す立体データ作成
方法及び装置並びにシステムを提供することを目的とす
る。 1)縦(あるいは横方向)の1本のスリット光源を法線
方向に走らすだけで撮影対象の立体データを作成する立
体データ作成方法及び装置 2)同一撮影対象を撮影した画像から、光源等を当てる
ことなく、自動的ないし半自動的に撮影対象の立体デー
タを作成する立体データ作成方法及び装置 3)同一撮影空間を任意に撮影した複数の画像から複数
の点を照合してカメラの視点、画面の位置を決定し、対
象空間の立体データを作成する立体データ作成方法及び
装置 4)複数の地点から撮影した画像から、撮影地点の位置
情報を同時に得てカメラの視点、画面の位置を決定し、
対象空間の立体データを作成する立体データ作成方法及
び装置 5)端末側で入力された複数の画像データから、サーバ
側で空間構造の解析、立体データの作成等を行うことに
より、端末側で簡便にシュミレーションを行うことを可
能とする通信ネットワークを利用した立体データ作成シ
ステム
SUMMARY OF THE INVENTION It is an object of the present invention to reinforce the above-mentioned "three-dimensional data creation method" and to provide the following three-dimensional data creation method, apparatus and system. 1) Three-dimensional data creation method and apparatus for creating three-dimensional data of an object to be photographed simply by running one vertical (or horizontal) slit light source in the normal direction. 3D data creation method and apparatus for automatically or semi-automatically creating 3D data of a photographing target without hitting 3) Matching a plurality of points from a plurality of images arbitrarily photographed in the same photographing space to check the viewpoint and screen of the camera 3D data creation method and apparatus for determining 3D position and creating 3D data in the target space 4) From the images taken from a plurality of points, the position information of the shooting points is simultaneously obtained to determine the viewpoint of the camera and the position of the screen. ,
3D data creation method and apparatus for creating 3D data of the target space 5) By analyzing the spatial structure and creating 3D data on the server side from a plurality of image data input on the terminal side, simple on the terminal side Data creation system using communication network that enables simulation to be performed

【0007】[0007]

【課題を解決するための手段】本発明の請求項1に係る
立体データ作成方法は、計測対象となる物体の表面に投
影されたスリット光線を位置の異なる複数の視点に位置
する撮影手段から同時に計測するとともに、同じ空間に
基準となる枠をおいて消点を計測して撮影手段の視点を
求め、当該複数の撮影手段から導かれる基本構図を重ね
て照合し、計測対象に投影されたスリット光線から計測
対象表面の各点の位置を特定して撮影の対象となった物
体の立体データを作成する方法であって、複数の撮影手
段から計測された複数の画像において対応すべき画素
が、当該複数の画像の視点と同一平面上に位置すること
を条件として画素相互の対応関係を求め、これに基づい
て立体データを作成するものである。また、本発明の請
求項2に係る立体データ作成方法は、計測対象となる物
体の表面に投影されたスリット光線を位置の異なる複数
の視点に位置する撮影手段から同時に計測するととも
に、同じ空間に基準となる枠をおいて消点を計測して撮
影手段の視点を求め、当該複数の撮影手段から導かれる
基本構図を重ねて照合して視点と画面を同一座標系に配
し、又は撮影対象上の座標が不明の5点以上の対応する
画素の位置関係から視点と画面を同一座標系に配し、計
測対象に投影されたスリット光線から計測対象表面の各
点の位置を特定して撮影の対象となった物体の立体デー
タを作成する方法であって、複数の撮影手段から計測さ
れた複数の画像における各画素と視点を結んで作成され
る各画面毎の平面又は曲面の交差によって形成される三
次元空間上の直線又は曲線に基づいて立体データを作成
するものである。
According to a first aspect of the present invention, there is provided a method for producing three-dimensional data, wherein slit light beams projected on the surface of an object to be measured are simultaneously transmitted from photographing means located at a plurality of viewpoints having different positions. While measuring, the vanishing point is measured in the same space to determine the vanishing point, the viewpoint of the photographing means is obtained, the basic composition derived from the plurality of photographing means is overlapped and collated, and the slit projected on the measurement object A method of identifying the position of each point on the surface to be measured from light rays and creating three-dimensional data of the object that was the target of imaging, and pixels to be corresponded in a plurality of images measured from a plurality of imaging means, The correspondence between pixels is obtained on condition that the pixels are located on the same plane as the viewpoints of the plurality of images, and stereoscopic data is created based on the correspondence. Further, the stereoscopic data creating method according to claim 2 of the present invention measures slit light rays projected on the surface of an object to be measured simultaneously from photographing means located at a plurality of viewpoints having different positions, and simultaneously measures the slit light rays in the same space. Measure the vanishing point in the reference frame to determine the viewpoint of the photographing means, superimpose and compare the basic compositions derived from the plurality of photographing means, arrange the viewpoint and the screen in the same coordinate system, or The viewpoint and the screen are arranged in the same coordinate system based on the positional relationship of the corresponding pixels of five or more points whose upper coordinates are unknown, and the position of each point on the surface of the measurement target is specified from the slit light beam projected on the measurement target and photographed. Is a method of creating three-dimensional data of a target object, which is formed by intersecting a plane or a curved surface of each screen created by connecting each pixel and a viewpoint in a plurality of images measured from a plurality of photographing means. Tertiary It is to create a three-dimensional data based on the straight or curved in space.

【0008】また、本発明の請求項3に係る画像領域対
応関係判別方法は、空間構造が未知の空間の複数の静止
画像を取り込み、その取り込んだ静止画像内の直線の位
置関係に基づいて静止画像に対する視点の位置を割り出
し、静止画像及び視点の情報に基づいて、静止画像内の
空間構造の立体データを作成する立体データ作成におけ
る画像領域の一対一対応関係を判別する方法であって、
各画像からなる各画面を同一座標系に置き、異なる位置
から撮影した複数の静止画像を複数の画像領域に分割
し、当該複数の画像における各画像領域の一対一対応関
係を判別するものである。
According to a third aspect of the present invention, there is provided a method for determining a correspondence between image regions, wherein a plurality of still images in a space having an unknown spatial structure are captured, and the still images are captured based on a positional relationship of straight lines in the captured still images. A method of determining a position of a viewpoint with respect to an image, and determining a one-to-one correspondence between image regions in three-dimensional data creation for creating three-dimensional data of a spatial structure in a still image based on information of a still image and a viewpoint,
Each screen composed of images is placed in the same coordinate system, a plurality of still images photographed from different positions are divided into a plurality of image regions, and a one-to-one correspondence between the image regions in the plurality of images is determined. .

【0009】また、本発明の請求項4に係る画像領域対
応関係判別方法は、空間構造が未知の空間の複数の静止
画像を取り込み、その取り込んだ静止画像内の座標が既
知の3又は4点の画素と対応関係のみ判明している2以
下の画素、あるいは対応関係のみ判明している7以下の
画素の位置関係から静止画像に対する視点の位置を割り
出し、複数の静止画像と視点の相対的位置関係を同一の
座標系において求める方法であって、各画像からなる各
画面を同一座標系に置き、異なる位置から撮影した複数
の静止画像を各複数の画像領域に分割し、当該複数の画
像における各画像領域の一対一対応関係を判別するもの
である。
According to a fourth aspect of the present invention, there is provided a method for determining a correspondence between image regions, wherein a plurality of still images in a space having an unknown spatial structure are fetched, and three or four points whose coordinates in the fetched still images are known. The position of the viewpoint with respect to the still image is calculated from the positional relationship of two or less pixels whose correspondence is known only with the pixel of 7 or less, or the pixel whose correspondence is known only with seven or less, and the relative positions of the plurality of still images and the viewpoint are determined. A method of obtaining a relationship in the same coordinate system, where each screen composed of images is placed in the same coordinate system, a plurality of still images photographed from different positions are divided into a plurality of image regions, and the The one-to-one correspondence between the image areas is determined.

【0010】また、本発明の請求項5に係る立体データ
作成方法は、請求項3又は請求項4記載の画像領域対応
関係判別方法を用い、各二枚の画面の一対一対応してい
る画像領域における対応すべき画素が当該各二枚の画面
の視点と同一平面上に位置すること、及び当該同一平面
上に位置する2点においては一の画面上の左右の位置関
係は他方画面上も同じ左右の関係であるか又は同一点で
あることを条件として画素単位での対応関係を求め、こ
れに基づいて立体データを作成するものである。
According to a fifth aspect of the present invention, there is provided a three-dimensional data creating method using the image area correspondence relationship determining method according to the third or fourth aspect, wherein each of the two screens has a one-to-one correspondence. The corresponding pixels in the region are located on the same plane as the viewpoint of each of the two screens, and at two points located on the same plane, the left and right positional relationship on one screen is also on the other screen. The correspondence in pixel units is determined on the condition that they have the same left-right relationship or the same point, and three-dimensional data is created based on the correspondence.

【0011】また、本発明の請求項6に係る立体データ
作成方法は、請求項4記載の画像領域対応関係判別方法
を用い、各二枚の画面の一対一対応している画像領域に
おける一対一対応した画像領域の境界線上の対応すべき
画素が当該複数の画面の視点と同一平面上に位置するこ
と、及び当該同一平面上に位置する2点においては一の
画面上の左右の位置関係は他方画面上も同じ左右の関係
であることを条件として画素単位での対応関係を特定
し、撮影対象の一部の立体データを作成するものであ
る。
According to a sixth aspect of the present invention, there is provided a three-dimensional data creating method using the image area correspondence determining method according to the fourth aspect of the present invention. The corresponding pixels on the boundary line of the corresponding image area are located on the same plane as the viewpoints of the plurality of screens, and at two points located on the same plane, the left and right positional relationship on one screen is On the other hand, on the condition that the left-right relationship is also the same on the screen, the correspondence in pixel units is specified, and a part of the three-dimensional data of the shooting target is created.

【0012】また、本発明の請求項7に係る立体データ
作成方法は、請求項5又は請求項6記載の立体データ作
成方法において、撮影時に得られた撮影地点の位置情報
と外部空間の地図情報に基づき同一撮影対象空間を撮影
した複数の画像を選別し、撮影対象外部空間内の3点以
上の大凡の座標又は基本構図を得て、複数の画面と視点
の位置を同一の座標系におくものである。
According to a third aspect of the present invention, there is provided the three-dimensional data creating method according to the fifth or sixth aspect, wherein the position information of the photographing point obtained at the time of photographing and the map information of the external space are obtained. A plurality of images obtained by photographing the same photographing target space are selected on the basis of the above, the approximate coordinates or basic composition of three or more points in the photographing target external space are obtained, and the positions of a plurality of screens and viewpoints are set in the same coordinate system. Things.

【0013】また、本発明の請求項8に係る立体データ
作成方法は、請求項5又は請求項6記載の立体データ作
成方法において、任意の同一座標系に配した各二枚の画
面の視点と同一平面上に位置する、各二枚の画面上の直
線上に配された画素に対して、色データの彩度、明度の
極大値、極小値又は特異な値を持つ画素の並ぶ順序が各
画面において一致することを条件として、画素単位の対
応付けを行うものである。
According to a third aspect of the present invention, there is provided the three-dimensional data creating method according to the fifth or sixth aspect, wherein the viewpoint of each of the two screens arranged in an arbitrary coordinate system is different from the viewpoint of the three-dimensional data creating method. For pixels located on the same plane and arranged on a straight line on each of the two screens, the saturation order of the color data, the maximum value of the brightness, the minimum value, or the On the condition that they match on the screen, the correspondence in pixel units is performed.

【0014】また、本発明の請求項9に係る立体データ
作成方法は、請求項5又は請求項6記載の立体データ作
成方法において、同一座標系に配した3枚以上の画面を
用いて画素の対応付けを行う場合に、任意の二枚の画面
において対応付けた画素と二枚以外の画面において対応
付けられる画素が、二枚以外の画面の視点、各二枚の内
のそれぞれの視点及び対応付けた画素と同一平面上にあ
ることを利用して、二枚以外の画面上の画素の位置を求
め、その色データから対応付けた画素の対応付けの良否
を判定するものである。
According to a ninth aspect of the present invention, there is provided the three-dimensional data creation method according to the fifth or sixth aspect, wherein three or more screens arranged in the same coordinate system are used to generate the pixel data. When performing the association, the pixels associated with any two screens and the pixels associated with the screens other than the two screens correspond to the viewpoints of the screens other than the two screens, the viewpoints of each of the two screens, and the correspondence. By utilizing the fact that the pixels are on the same plane as the attached pixels, the positions of the pixels on the screen other than the two pixels are obtained, and the quality of the association of the associated pixels is determined from the color data.

【0015】また、本発明の請求項10に係る立体デー
タ作成装置は、複数の撮影手段と、計測対象となる物体
の表面にスリット光線を投影するスリット光源と、計測
対象となる物体の表面に投影されたスリット光線を、位
置の異なる複数の視点に位置する撮影手段から同時に計
測するとともに、同じ空間に基準となる枠をおいて消点
を計測して撮影手段の視点を求める計算手段と、複数の
撮影手段から導かれる基本構図を重ねて照合し、計測対
象に投影されたスリット光線から計測対象表面の各点の
位置を特定して撮影の対象となった物体の立体データを
作成する生成手段とを備え、生成手段は、複数の撮影手
段から計測された複数の画像において対応すべき画素
が、当該複数の画像の視点と同一平面上に位置すること
を条件として画素相互の対応関係を求め、これに基づい
て立体データを作成するものである。また、本発明の請
求項11に係る立体データ作成装置は、複数の撮影手段
と、計測対象となる物体の表面にスリット光線を投影す
るスリット光源と、計測対象となる物体の表面に投影さ
れたスリット光線を、位置の異なる複数の視点に位置す
る撮影手段から同時に計測するとともに、同じ空間に基
準となる枠をおいて消点を計測して撮影手段の視点を求
める計算手段と、複数の撮影手段から導かれる基本構図
を重ねて照合して視点と画面を同一座標系に配し、又は
撮影対象上の座標が不明の5点以上の対応する画素の位
置関係から視点と画面を同一座標系に配し、計測対象に
投影されたスリット光線から計測対象表面の各点の位置
を特定して撮影の対象となった物体の立体データを作成
する生成手段をを備え、生成手段は、複数の撮影手段か
ら計測された複数の画像における各画素と視点を結んで
作成される各画面毎の平面又は曲面の交差によって形成
される三次元空間上の直線又は曲線に基づいて立体デー
タを作成するものである。
According to a tenth aspect of the present invention, there is provided a three-dimensional data creating apparatus, comprising: a plurality of photographing means; a slit light source for projecting a slit light beam on a surface of an object to be measured; Calculation means for simultaneously measuring the projected slit light rays from the imaging means located at a plurality of different viewpoints, and measuring the vanishing point in the same space as a reference frame to obtain the viewpoint of the imaging means, Generate and generate three-dimensional data of an object to be photographed by superimposing and collating basic compositions derived from a plurality of photographing means, specifying the position of each point on the surface of the measurement object from the slit light beam projected on the measurement object Means for generating a pixel phase on the condition that pixels to be corresponded in a plurality of images measured from the plurality of photographing means are located on the same plane as the viewpoints of the plurality of images. Seeking correspondence, it is to create a three-dimensional data based on this. Further, the three-dimensional data creating apparatus according to claim 11 of the present invention includes a plurality of photographing means, a slit light source for projecting a slit light beam on the surface of the measurement target object, and a slit light source projecting on the surface of the measurement target object. Calculating means for simultaneously measuring slit light rays from photographing means located at a plurality of viewpoints at different positions, measuring a vanishing point in a same frame as a reference frame, and obtaining a viewpoint of the photographing means; The viewpoint and the screen are arranged in the same coordinate system by superimposing and comparing the basic composition derived from the means, or the viewpoint and the screen are arranged in the same coordinate system based on the positional relationship of five or more corresponding pixels whose coordinates on the object to be photographed are unknown. And generating means for specifying the position of each point on the surface of the measurement target from the slit light beam projected on the measurement target and creating three-dimensional data of the object to be photographed, the generation means comprising a plurality of Is it a shooting method? Is to create a three-dimensional data based on the straight or curved in a three-dimensional space formed by the intersection of a plane or curved surface of each screen to be created by connecting the respective pixel and the viewpoint of the measured plurality of images.

【0016】また、本発明の請求項12に係る立体デー
タ作成装置は、複数の撮影手段と、複数の撮影手段から
空間構造が未知の空間の複数の静止画像を取り込み、そ
の取り込んだ静止画像内の直線の位置関係に基づいて静
止画像に対する視点の位置を割り出す計算手段と、静止
画像及び視点の情報に基づいて、静止画像内の空間構造
の立体データを作成する立体データ作成における画像領
域の一対一対応関係を判別し、撮影の対象となった物体
の立体データを作成する生成手段とを備え、生成手段
は、各画像からなる各画面を同一座標系に置き、異なる
位置から撮影した複数の静止画像を複数の画像領域に分
割し、当該複数の画像における各画像領域の一対一対応
関係を判別し、これに基づいて立体データを作成するも
のである。
According to a twelfth aspect of the present invention, there is provided a three-dimensional data creating apparatus, wherein a plurality of photographing means, and a plurality of still images in a space having an unknown spatial structure are captured from the plurality of photographing means, and the captured still image Calculating means for calculating the position of the viewpoint with respect to the still image based on the positional relationship of the straight line, and a pair of image regions in the three-dimensional data creation for creating three-dimensional data of the spatial structure in the still image based on information on the still image and the viewpoint Generating means for determining three-dimensional correspondence and creating three-dimensional data of the object to be photographed, wherein the generating means places each screen composed of images in the same coordinate system, and a plurality of images photographed from different positions. A still image is divided into a plurality of image areas, a one-to-one correspondence between image areas in the plurality of images is determined, and three-dimensional data is created based on the correspondence.

【0017】また、本発明の請求項13に係る立体デー
タ作成装置は、複数の撮影手段と、複数の撮影手段から
空間構造が未知の空間の複数の静止画像を取り込み、そ
の取り込んだ静止画像内の座標が既知の3又は4点の画
素と対応関係のみ判明している2以下の画素、あるいは
対応関係のみ判明している7以下の画素の位置関係から
静止画像に対する視点の位置を割り出す計算手段と、複
数の静止画像と視点の相対的位置関係を同一の座標系に
おいて求め、撮影の対象となった物体の立体データを作
成する生成手段とを備え、生成手段は、各画像からなる
各画面を同一座標系に置き、異なる位置から撮影した複
数の静止画像を各複数の画像領域に分割し、当該複数の
画像における各画像領域の一対一対応関係を判別し、こ
れに基づいて立体データを作成するものである。
According to a thirteenth aspect of the present invention, there is provided a three-dimensional data creating apparatus, wherein a plurality of photographing means, and a plurality of still images in a space having an unknown spatial structure are captured from the plurality of photographing means, and the captured still image Calculating means for determining the position of the viewpoint with respect to the still image from the positional relationship of two or less pixels whose correspondence is known only with three or four pixels whose coordinates are known, or the seven or less pixels whose only correspondence is known And generating means for obtaining the relative positional relationship between the plurality of still images and the viewpoint in the same coordinate system, and generating three-dimensional data of the object to be photographed. Are placed in the same coordinate system, a plurality of still images photographed from different positions are divided into a plurality of image regions, a one-to-one correspondence between the image regions in the plurality of images is determined, and a three-dimensional It is intended to create an over data.

【0018】また、本発明の請求項14に係る立体デー
タ作成装置は、請求項12又は請求項13記載の立体デ
ータ作成装置において、生成手段は、さらに、各二枚の
画面の一対一対応している画像領域における対応すべき
画素が当該各二枚の画面の視点と同一平面上に位置する
こと、及び当該同一平面上に位置する2点においては一
の画面上の左右の位置関係は他方画面上も同じ左右の関
係であるか又は同一点であることを条件として画素単位
での対応関係を求め、これに基づいて立体データを作成
するものである。
According to a fourteenth aspect of the present invention, in the three-dimensional data creating apparatus according to the twelfth or thirteenth aspect, the generating means further includes a one-to-one correspondence between each two screens. That the corresponding pixels in the image area are located on the same plane as the viewpoints of the two screens, and that at two points located on the same plane, the left and right positional relationship on one screen is the other The correspondence is obtained on a pixel-by-pixel basis under the condition that the left and right relationships are the same or the same point on the screen, and stereoscopic data is created based on this.

【0019】また、本発明の請求項15に係る立体デー
タ作成装置は、請求項13記載の立体データ作成装置に
おいて、生成手段は、さらに、各二枚の画面の一対一対
応している画像領域における一対一対応した画像領域の
境界線上の対応すべき画素が当該複数の画面の視点と同
一平面上に位置すること、及び当該同一平面上に位置す
る2点においては一の画面上の左右の位置関係は他方画
面上も同じ左右の関係であることを条件として画素単位
での対応関係を特定し、撮影対象の一部の立体データを
作成するものである。
According to a fifteenth aspect of the present invention, in the three-dimensional data producing apparatus according to the thirteenth aspect, the generating means further comprises a one-to-one image area corresponding to each of the two screens. That the corresponding pixels on the boundary line of the image area corresponding one-to-one are located on the same plane as the viewpoints of the plurality of screens, and at two points located on the same plane, the right and left On the other hand, the positional relationship is to specify a corresponding relationship in pixel units on the condition that the same right and left relationship is also present on the other screen, and to create a part of the stereoscopic data of the photographing target.

【0020】また、本発明の請求項16に係る立体デー
タ作成装置は、請求項14又は請求項15記載の立体デ
ータ作成装置において、生成手段は、さらに、撮影時に
位置計測手段により得られた撮影地点の位置情報と外部
空間の地図情報に基づき同一撮影対象空間を撮影した複
数の画像を選別し、撮影対象外部空間内の3点以上の大
凡の座標又は基本構図を得て、複数の画面と視点の位置
を同一の座標系におくものである。
According to a sixteenth aspect of the present invention, there is provided the three-dimensional data creating apparatus according to the fourteenth or fifteenth aspect, wherein the generating means further comprises: Based on the location information of the point and the map information of the external space, a plurality of images obtained by shooting the same shooting target space are selected, and three or more approximate coordinates or a basic composition in the shooting target external space are obtained, and a plurality of screens are obtained. The position of the viewpoint is placed in the same coordinate system.

【0021】また、本発明の請求項17に係る立体デー
タ作成装置は、請求項15又は請求項16記載の立体デ
ータ作成装置において、生成手段は、さらに、任意の同
一座標系に配した各二枚の画面の視点と同一平面上に位
置する、各二枚の画面上の直線上に配された画素に対し
て、色データの彩度、明度の極大値、極小値又は特異な
値を持つ画素の並ぶ順序が各画面において一致すること
を条件として、画素単位の対応付けを行うものである。
According to a seventeenth aspect of the present invention, in the three-dimensional data creating apparatus according to the fifteenth or sixteenth aspect, the generating means further comprises: For pixels arranged on a straight line on each of the two screens, which are located on the same plane as the viewpoint of the two screens, have the saturation, the maximum value, the minimum value, or a unique value of the color data of the color data On the condition that the order in which the pixels are arranged is the same in each screen, the correspondence in pixel units is performed.

【0022】また、本発明の請求項18に係る立体デー
タ作成装置は、請求項15又は請求項16記載の立体デ
ータ作成装置において、生成手段は、さらに、同一座標
系に配した3枚以上の画面を用いて画素の対応付けを行
う場合に、任意の二枚の画面において対応付けた画素と
二枚以外の画面において対応付けられる画素が、二枚以
外の画面の視点、各二枚の内のそれぞれの視点及び対応
付けた画素と同一平面上にあることを利用して、二枚以
外の画面上の画素の位置を求め、その色データから対応
付けた画素の対応付けの良否を判定するものである。
The three-dimensional data creation device according to the eighteenth aspect of the present invention is the three-dimensional data creation device according to the fifteenth or sixteenth aspect, wherein the generating means further includes three or more three-dimensional data arranged on the same coordinate system. In the case where the pixels are associated using the screens, the pixels associated with any two screens and the pixels associated with the screens other than the two screens are different from the viewpoints of the screens other than the two screens, each of the two screens. Is used to determine the positions of the pixels on the screen other than the two by utilizing the respective viewpoints and being on the same plane as the associated pixels, and determining whether the associated pixels are good or bad based on the color data. Things.

【0023】また、本発明の請求項19に係る立体デー
タ作成システムは、少なくとも1つの端末と、その端末
に通信ネットワークを介して接続され、少なくとも請求
項1、4、5、6、7、8又は9記載の立体データ作成
方法を用いて立体データ作成処理を行うサーバとを備
え、端末は、空間構造が未知の空間の複数の静止画像デ
ータを入力する手段と、その入力された空間構造が未知
の空間の複数の静止画像データを通信ネットワークを介
してサーバに送信する手段と、サーバから送信されたデ
ータ及び情報を受信し、受信したデータを表示又は出力
する手段とを有し、サーバは、端末から送信された空間
構造が未知の空間の複数の静止画像データを受信する手
段と、受信した複数の静止画像データから、撮影対象空
間の立体データ及び同一座標系に置いた複数の静止画像
からなる複数の画面と視点の位置情報の少なくとも1つ
を作成する手段と、作成した立体データ及び位置情報を
端末に送信し、端末から表示又は出力させる手段とを有
するものである。
A three-dimensional data creation system according to a nineteenth aspect of the present invention is connected to at least one terminal and the terminal via a communication network, and at least one of the first, fourth, fifth, sixth, seventh, and eighth aspects. Or a server for performing stereoscopic data creation processing using the stereoscopic data creation method according to 9 above, wherein the terminal is configured to input a plurality of still image data in a space whose spatial structure is unknown, and that the input spatial structure is Means for transmitting a plurality of still image data in an unknown space to a server via a communication network, receiving data and information transmitted from the server, and displaying or outputting the received data, the server comprising: Means for receiving a plurality of still image data in a space whose space structure is unknown transmitted from the terminal, and from the received plurality of still image data, three-dimensional data of a shooting target space and Means for creating at least one of a plurality of screens composed of a plurality of still images placed in one coordinate system and position information of a viewpoint, and means for transmitting the created three-dimensional data and position information to a terminal and displaying or outputting the information from the terminal And

【0024】また、本発明の請求項20に係る立体デー
タ作成システムは、少なくとも1つの端末と、その端末
に通信ネットワークを介して接続され、少なくとも請求
項1、4、5、6、7、8又は9記載の立体データ作成
方法を用いて立体データ作成処理を行うサーバとを備
え、端末は、空間構造が未知の空間の複数の静止画像デ
ータを入力する手段と、その入力された空間構造が未知
の空間の複数の静止画像データを通信ネットワークを介
してサーバに送信する手段と、サーバから送信されたデ
ータ及び情報を受信し、受信したデータを表示又は出力
する手段とを有し、サーバは、端末から送信された空間
構造が未知の空間の複数の静止画像データを受信する手
段と、受信した複数の静止画像データから、撮影対象空
間の立体データ及び同一座標系に置いた複数の静止画像
からなる複数の画面と視点の位置情報を作成する手段
と、作成した撮影対象空間の立体データ及び視点の位置
情報に基づいて、画像データを作成する手段と、作成し
た画像データを端末に送信し、端末から表示又は出力さ
せる手段とを有するものである。
A three-dimensional data creation system according to a twentieth aspect of the present invention is connected to at least one terminal and the terminal via a communication network, and at least one of the first, fourth, fifth, sixth, seventh, and eighth aspects. Or a server for performing stereoscopic data creation processing using the stereoscopic data creation method according to 9 above, wherein the terminal is configured to input a plurality of still image data in a space whose spatial structure is unknown, and that the input spatial structure is Means for transmitting a plurality of still image data in an unknown space to a server via a communication network, receiving data and information transmitted from the server, and displaying or outputting the received data, the server comprising: Means for receiving a plurality of still image data in a space whose space structure is unknown transmitted from the terminal, and from the received plurality of still image data, three-dimensional data of a shooting target space and Means for creating position information of a plurality of screens and viewpoints composed of a plurality of still images placed in one coordinate system, and means for creating image data based on the created stereoscopic data of the shooting target space and the position information of the viewpoint. Means for transmitting the created image data to the terminal and displaying or outputting the data from the terminal.

【0025】また、本発明の請求項21に係る立体デー
タ作成システムは、少なくとも1つの端末と、その端末
に通信ネットワークを介して接続され、少なくとも請求
項1、4、5、6、7、8又は9記載の立体データ作成
方法を用いて立体データ作成処理を行うサーバとを備
え、端末は、空間構造が未知の空間の複数の静止画像デ
ータ及び視点の位置情報を入力する手段と、その入力さ
れた空間構造が未知の空間の複数の静止画像データ及び
視点の位置情報を通信ネットワークを介してサーバに送
信する手段と、サーバから送信されたデータ及び情報を
受信し、受信したデータを表示又は出力する手段とを有
し、サーバは、端末から送信された空間構造が未知の空
間の複数の静止画像データ及び視点の位置情報を受信す
る手段と、受信した複数の静止画像データから、撮影対
象空間の立体データを作成する手段と、作成した撮影対
象空間の立体データ及び端末から送信された視点の位置
情報に基づいて、画像データを作成する手段と、作成し
た画像データを端末に送信し、端末から表示又は出力さ
せる手段とを有するものである。
A three-dimensional data creation system according to a twenty-first aspect of the present invention is connected to at least one terminal via a communication network, and at least one of the first, fourth, fifth, sixth, seventh, and eighth aspects. Or a server for performing stereoscopic data creation processing using the stereoscopic data creation method described in 9, wherein the terminal inputs a plurality of still image data in a space whose spatial structure is unknown and position information of a viewpoint, Means for transmitting a plurality of still image data and the position information of the viewpoint in a space whose unknown space structure is unknown to a server via a communication network, receiving the data and information transmitted from the server, and displaying the received data or Means for outputting, and the server receives a plurality of still image data in a space whose space structure is unknown and position information of the viewpoint transmitted from the terminal, Means for creating three-dimensional data of the imaging target space from the number of still image data, means for creating image data based on the created three-dimensional data of the imaging target space, and viewpoint information transmitted from the terminal; Means for transmitting the generated image data to the terminal and displaying or outputting the image data from the terminal.

【0026】[0026]

【発明の実施の形態】実施の形態1.縦(あるいは横方
向)の1本のスリット光源を法線方向に走らすだけで撮
影対象の立体データを作成する方法、装置について記
す。同一対象物を異なる位置から撮影した複数の画面と
その撮影した視点を同一座標系に配する。この方法につ
いては「立体データ作成方法」及び本発明に複数の方法
が記述されている。当該対象物上の任意の一点は、各画
面上では、その撮影対象物上の点と当該画面を撮影した
視点とを結ぶ線と当該画面の交点に現れる。言い換えれ
ば、片方の画面上に現れた一点の実際の3次元座標は、
その画面上の点と視点を結んだ直線の延長上にあり、同
様に他方の画面上の点と視点を結んだ直線の延長上にあ
る。従って、2枚以上複数枚の画面と当該画面の視点を
結んだ直線の延長上の3次元空間における交点が求める
点の3次元座標である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 A method and an apparatus for creating three-dimensional data of an object to be photographed by simply running one vertical (or horizontal) slit light source in the normal direction will be described. A plurality of screens of the same object photographed from different positions and viewpoints of the photographed images are arranged in the same coordinate system. Regarding this method, a “3D data creation method” and a plurality of methods are described in the present invention. An arbitrary point on the object appears on each screen at the intersection of the line connecting the point on the object to be photographed and the viewpoint at which the screen was photographed. In other words, the actual three-dimensional coordinates of one point appearing on one screen are
It is on the extension of the straight line connecting the point on the screen and the viewpoint, and similarly on the extension of the straight line connecting the point on the other screen and the viewpoint. Therefore, an intersection in a three-dimensional space on an extension of a straight line connecting two or more screens and a viewpoint of the screen is a three-dimensional coordinate of a point to be obtained.

【0027】同一対象物上の任意の線(3次元空間にお
ける直線又は曲線)も同様に考えると、片方の画面上に
現れた線上の各点と視点を結ぶ直線の集合から構成され
る面(平面又は曲面)上にあり、同時に他の画面上に現
れた線上の各点と視点を結ぶ直線の集合から構成される
面(平面又は曲面)上にある。従って、その対象物上の
線の3次元空間における座標は、この2つの面の交差に
よって形成された直線または曲線だということができ
る。
When an arbitrary line (a straight line or a curve in a three-dimensional space) on the same object is considered in the same manner, a plane (a set of straight lines connecting each point on the line appearing on one screen and the viewpoint) is used. On a plane or a curved surface), and at the same time on a surface (a flat or curved surface) composed of a set of straight lines connecting each point on a line appearing on another screen and the viewpoint. Therefore, it can be said that the coordinates of the line on the object in the three-dimensional space are a straight line or a curve formed by the intersection of the two surfaces.

【0028】撮影対象に照射した一本のスリット光源
は、撮影対象空間で連続ないし不連続な一本の直線ない
し曲線として見える。言い換えれば、撮影対象に照射さ
れた光の当たった撮影対象の表面は、各画面に写し出さ
れた線を構成する画素と視点を結んだ直線の集合を全て
含む平面または曲面上にあると言える。以下では、連続
する画素を結んだ折れ線あるいは曲線を仮定的に置き、
この折れ線ないし曲線上の各点と視点とを結んだ曲面を
用いた方法を記す。
One slit light source illuminating the object to be photographed appears as a continuous or discontinuous straight line or curve in the space to be photographed. In other words, it can be said that the surface of the imaging target irradiated with the light irradiated on the imaging target is on a plane or a curved surface including all the sets of the straight lines connecting the pixels constituting the lines projected on the respective screens and the viewpoints. In the following, a hypothetical line or curve connecting continuous pixels is assumed,
A method using a curved surface connecting each point on the polygonal line or curve and the viewpoint will be described.

【0029】片方の画面上に現れた線上の任意の点が写
す撮影対象点の座標は、この画面上の点と視点を結ぶ直
線の延長上の、他方の画面の線と視点を結んで作られる
面との交点である。片方の画面上の線を各画素毎に同様
の操作を繰り返すと、点の数だけ3次元空間上の座標が
得られる。同じく、他方の画面の線上の点毎に同様の操
作を行い3次元空間上の座標が得られる。
The coordinates of an object point to be photographed by an arbitrary point on a line appearing on one screen are formed by connecting the viewpoint with the line on the other screen, which is an extension of a straight line connecting the point on the screen and the viewpoint. Is the intersection with the surface When the same operation is repeated for each pixel on one line on the screen, coordinates in a three-dimensional space can be obtained by the number of points. Similarly, the same operation is performed for each point on the line on the other screen to obtain coordinates in a three-dimensional space.

【0030】これら二組の3次元空間上の座標は、共に
各画像上の線と視点を結んだ平面ないし曲面の交差によ
って得られた3次元空間上の直線又は曲線上にある。従
って、先の操作によって得られた二組の3次元空間内の
点を隣接するもの同士つなぎ合わせて1本の線とするこ
とで、求めるスリット光源の当たった撮影対象の表面の
座標が得られる。尚、片方の画面が写し出した線の全て
を他方の画面が写し出していない場合は、当然に両方の
面の始まりと終わりは一致しない。即ち、一方の平面と
他方の平面が交差しないところは、片方のカメラにしか
映し出されなかった部位であるため、当然に立体データ
を得ることはできない。
These two sets of coordinates in the three-dimensional space are both on a straight line or a curve in the three-dimensional space obtained by the intersection of a plane or a curved surface connecting the line on each image and the viewpoint. Accordingly, by joining the two points in the three-dimensional space obtained by the previous operation and connecting them to one another to form a single line, the coordinates of the surface of the imaging target hit by the desired slit light source can be obtained. . When all the lines projected by one screen are not projected by the other screen, the start and end of both planes do not necessarily match. In other words, where one plane and the other plane do not intersect, it is a part that has been projected on only one camera, so that three-dimensional data cannot be naturally obtained.

【0031】この操作を、縦方向(あるいは横方向の)
のスリット光源を法線方向に走らし、複数の画像の組か
ら、撮影対象上の多数の立体座標を得ることによって、
撮影対象の表面全体の立体データを得ることができる。
尚、スリット光源が視点Sa、Sbを通り、図3のZ軸に重
ねて置かれた場合、A、B両画面に映し出される像は共に
平面Y=αX上にあるとこになり、A画面の像と視点を
結んだ平面と、B画面の像と視点を結んだ平面は常に一
致し、3次元空間上で交差しない。
This operation is performed in the vertical (or horizontal) direction.
By running the slit light source in the normal direction and obtaining a large number of three-dimensional coordinates on the subject from multiple image sets,
It is possible to obtain three-dimensional data of the entire surface of the imaging target.
When the slit light source passes through the viewpoints Sa and Sb and is placed on the Z axis in FIG. 3, the images projected on both the screens A and B are both on the plane Y = αX. The plane connecting the image and the viewpoint always coincides with the plane connecting the image of the screen B and the viewpoint and does not intersect in the three-dimensional space.

【0032】このため、先のような解析は不可能になっ
てしまう。スリット光源をZ軸に置かない場合でも、Z
軸に平行に近い横向きに照射すると、理論上は面の交差
によって立体データを得られるものの、画素が有限個で
あることによって測定誤差が拡大してしまう。従って、
スリット光源はZ軸に垂直な縦方向に照射する方が望ま
しい。
Therefore, the above-mentioned analysis becomes impossible. Even if the slit light source is not placed on the Z axis,
When illuminating horizontally in a direction parallel to the axis, three-dimensional data can theoretically be obtained by crossing the planes, but the measurement error increases due to the limited number of pixels. Therefore,
It is desirable that the slit light source emits light in the vertical direction perpendicular to the Z axis.

【0033】画面上の各画素を線で結ぶに当たって、各
画素を通る2次曲線、3次曲線、円弧などを近似的に当
てはめ、より精度が高いと思われる曲線を作成すること
もできる。例えば、隣接する4点を用いて、その4点を
通る3次曲線を求め、間にある2点間の曲線とし、1点
ずらして同様に隣接する画素間の曲線を求めるといった
ことを繰り返すという方法が考えられる。こうした場合
には、そうして作成された曲線上に仮定的に無数の画素
があるものとして、先の方法を踏襲することによって、
対象物上の光が当たった箇所の立体データを得る。この
ような方法を用いることにより、画素の粗さに起因する
誤差を軽減することが可能となる。
In connecting each pixel on the screen with a line, a quadratic curve, a cubic curve, an arc, or the like passing through each pixel can be approximately applied to create a curve that is considered to have higher accuracy. For example, repeating a process of calculating a cubic curve passing through four adjacent points using four adjacent points, setting a curve between two intermediate points, and calculating a curve between adjacent pixels similarly by shifting one point. A method is conceivable. In such a case, assuming that there are infinitely many pixels on the curve thus created, by following the above method,
Obtain three-dimensional data of a location on the object where the light hits. By using such a method, it is possible to reduce errors caused by pixel roughness.

【0034】「立体データ作成方法」では、任意の対象
物体の立体データを作成する際に、二台のカメラの間に
スリット光源を置き、このスリット光源から縦方向、横
方向にそれぞれ光を走らせ、画面上の画素単位毎の光の
当たる当たらないの時系列データ(空間コード)を照合
し、同一点であることを識別することとした。先の画面
上の線を照合するという考え方を用いれば、スリット光
源を縦方向か横方向いずれか一方向のみで、この照合を
行うことができる。
In the "3D data creation method", when creating 3D data of an arbitrary target object, a slit light source is placed between two cameras, and light is run from the slit light source in the vertical and horizontal directions. Then, time-series data (spatial code) of light that does not hit each pixel unit on the screen is collated to identify the same point. If the concept of collating lines on the screen is used, the collation can be performed only in one of the vertical and horizontal directions of the slit light source.

【0035】先の画面上の線を照合するという考え方
は、光を照射しない場合における線が閉ざされた輪を形
成するものであっても、同様の捉え方をすることができ
る。対象物体上の閉ざされた輪を構成する線は、その輪
の全部を撮影している限り、撮影した角度によって変形
したとしても、それを撮影した画像上も閉ざされた輪と
して表示される。画像上の閉ざされた輪の図3における
α値が最大の箇所と最小の箇所で左右二つの曲線に分割
すれば、撮影対象の輪が対象物の表面に存する輪である
ため、対象物が透明でない限り、異なる角度から撮影し
た画像であっても、A、B両画面において右側は右側同
士、左側は左側同士が同一部分の画像である。従って、
この左右それぞれの線毎の照合から、実際の対象物上の
閉ざされた輪を示す点の座標を求めれば、左右併せた閉
ざされた輪全体の立体空間データが得られる。尚、ここ
までの説明はスリット光源として通常の光をイメージし
たが、赤外線など計測に適せば、どのような光源、電磁
波等であってもよい。
The above-described concept of collating lines on the screen can be grasped in a similar manner even if the lines form a closed ring when no light is irradiated. The line that forms the closed ring on the target object is displayed as a closed ring on the image of the captured object even if it is deformed by the angle at which the image is taken, as long as the entire line is imaged. If the closed ring on the image is divided into two curves on the left and right at the point where the α value in FIG. 3 is the maximum and the point where the α value is the minimum, the object is a ring existing on the surface of the object. As long as the images are not transparent, even if the images are taken from different angles, the right side is an image of the same part on both the A and B screens, and the left side is the same part on the left side. Therefore,
If the coordinates of a point indicating the closed ring on the actual object are obtained from the collation for each of the right and left lines, three-dimensional space data of the entire closed ring including the left and right sides can be obtained. In the above description, ordinary light is used as the slit light source, but any light source, electromagnetic wave, or the like may be used as long as it is suitable for measurement such as infrared light.

【0036】実施の形態2.デジタル写真の実写画像で
は、通常各画素の色情報は1677万色と多様な値を取
りうる。同一対象物を複数のカメラで異なる角度から撮
影した場合に、対象物上の対応するべき各点の画像上の
色情報が同一であり、且つ各画素がそれぞれ固有の値を
とるのであれば、一方の画像上の各画素が他方の画像上
のどの画素に対応するのか容易に照合できるため、対象
物の立体データを簡単に作成できる。尚、複数の画面に
於いて、撮影対象表面の同一点を写し出す画素は、本発
明においては、対応すると表記する。
Embodiment 2 In an actual photographed image of a digital photograph, the color information of each pixel can take various values of 16.770,000 colors. When the same object is photographed from different angles by a plurality of cameras, if the color information on the image of each corresponding point on the object is the same, and if each pixel takes a unique value, Since it is possible to easily check which pixel on one image corresponds to which pixel on the other image, three-dimensional data of the object can be easily created. It should be noted that, in a plurality of screens, pixels that project the same point on the surface of the imaging target are described as corresponding in the present invention.

【0037】しかし、一般にはそのような状態にならな
いことが多いと考えられる。一つは、画素数が有限であ
るため、片方のカメラ画像上の一つの画素が表す撮影対
象物の表面領域が、他方の対応する画素が表す撮影対象
物の表面領域とずれており、そのために対応すべき双方
の画素の色データが異なってしまうという状況が生じて
しまうことが挙げられる。また、実際の撮影において
は、撮影対象は当然に光を反射するのであるが、この反
射率が撮影する方向によって異なり、同一箇所を撮影し
たにも拘わらず、角度の異なるカメラの画像上では異な
る色情報として記録される可能性がある。さらにカメラ
毎の癖、レンズの埃による色データの差違が生じる可能
性もある。
However, it is generally considered that such a state does not often occur. One is that the number of pixels is finite, so that the surface area of the imaging target represented by one pixel on one camera image is shifted from the surface area of the imaging target represented by the other corresponding pixel, , A situation occurs in which the color data of the two pixels that should correspond to each other is different. Also, in actual shooting, the shooting target naturally reflects light, but this reflectance differs depending on the shooting direction, and differs even on the images of cameras with different angles, even though the same place is shot. It may be recorded as color information. Further, there is a possibility that a difference in color data due to a habit of each camera and dust of a lens may occur.

【0038】同一撮影対象を撮影した画像から、光源等
を当てることなく、半自動的に撮影対象の立体データを
作成するシステムについて記す。光源等を当てることな
く、複数の通常の写真画像から常に一義的に撮影対象の
立体データを作成することは理論的に不可能である。不
可能な例を挙げる。球形の形状の対象物を撮影した場
合、A、B両画面には円が写っているのであるが、対象物
が平面状の楕円である場合でも、A、B両画面に同じ円形
の画像を得ることができる場合があるし、この平面状の
楕円を少し膨らまし、あるいは凹ました場合も同様な結
果が得られる。このように、視覚的に錯覚を呼び起こす
ような形状は数多く考えられることから、理論的にA、B
両画面の画像の情報のみから撮影対象物の立体形状を一
義的に求めることは不可能であることが容易に証明でき
る。
A system for semi-automatically creating three-dimensional data of an object to be photographed from an image of the same object without illuminating a light source or the like will be described. It is theoretically impossible to always uniquely create three-dimensional data of a shooting target from a plurality of normal photographic images without illuminating a light source or the like. Here are some examples that are not possible: When shooting an object with a spherical shape, a circle is shown on both the A and B screens, but even when the object is a flat ellipse, the same circular image is displayed on both the A and B screens. In some cases, the same result can be obtained when the flat ellipse is slightly expanded or depressed. In this way, there are many shapes that can visually evoke the illusion, and theoretically A, B
It can be easily proved that it is impossible to uniquely determine the three-dimensional shape of the photographing target from only the information of the images on both screens.

【0039】また、画素の粗さや光の反射率、画面や視
点の位置の誤差に起因して、同一対象を表すA、B両画面
の画素の色データが異なる結果、一対一対応が困難にな
る場合も多い。各カメラ毎の色データを感知する際の微
妙な癖も問題となりうる。ほぼ同一の色彩あるいは同一
の色彩の細かな模様の対象物の立体データを作成する場
合、複数の画像における色の微妙な変化を照合し、両画
像の画素同士の対応関係から、各画素が表す点の立体座
標を求めることになる。しかし、その照合の過程に於い
て、複数画面に写し取られた微妙な変化が、先の画素の
粗さや光の反射率、撮影対象の表面に画素の密度に比し
て微細な凹凸が多数あり、同じ箇所の色が両方の画像で
異なった色として写し出されたり、一方からしか見えな
い色があったりすることに起因して正確な対応関係を求
められない場合や、色の変化の度合いが極めて小さく、
画素単位での正確な照合が不可能な場合が想定される。
全く異なる部位を写しながら、A、B両画面に於いて同一
と錯覚させるような画像が写されている場合も想定しう
る。このような場合、画素単位の一対一対応関係を探り
当てることは理論的に不可能になる。
Also, due to differences in pixel roughness, light reflectivity, and errors in the positions of the screens and viewpoints, the color data of the pixels on both the A and B screens representing the same object differ, making it difficult to make one-to-one correspondence. In many cases. Subtle habits when sensing color data for each camera can also be a problem. When creating three-dimensional data of an object having almost the same color or a fine pattern of the same color, a subtle change in color in a plurality of images is collated, and each pixel is represented by a correspondence relationship between pixels in both images. The three-dimensional coordinates of the point will be obtained. However, in the process of collation, the subtle changes captured on multiple screens show many fine irregularities on the surface of the subject, compared to the roughness of the pixels, the reflectance of light, and the density of the pixels. There are cases where the same color is displayed as a different color in both images, or there is a color that can be seen only from one side, and it is not possible to find an exact correspondence, or the degree of color change Is extremely small,
It is assumed that accurate matching in pixel units is impossible.
It is also conceivable that an image that makes an illusion of the same on both the A and B screens is captured while capturing completely different parts. In such a case, it is theoretically impossible to find the one-to-one correspondence in the pixel unit.

【0040】外部空間や室内空間を写し出す場合、細か
くざらついた壁面、細かな織り込み模様のソファなど、
そのような撮影対象物は多数あると思われるが、本発明
では、画素を照合して対応関係を求める際の制約条件を
整え、画素単位で対応させた際の色データの差違が総体
として少なくなるような対応関係を求めることで、測定
誤差の軽減を図りつつ、2画像ないし3画像から撮影対
象の立体データを作成する方法を示す。
When projecting an external space or an indoor space, finely textured walls, sofas with finely woven patterns, etc.
Although it seems that there are many such photographing objects, in the present invention, the constraints when matching the pixels and obtaining the correspondence are adjusted, and the difference in the color data when the correspondence is made on a pixel basis is reduced as a whole. A method of creating three-dimensional data of a shooting target from two or three images while reducing a measurement error by obtaining such a correspondence will be described.

【0041】第一段階では、同一の撮影対象空間あるい
は撮影対象物を異なる角度から撮影した画面A、B、
(C)の視点と対象空間の基本構図を割り出し、画面
A、B、(C)を同一座標系の空間上に置く(図3)。
ここで基本構図といっているものは、「立体データ作成
方法」でいうところの長方形状の二つの枠を一定角度で
接合した基準となる枠の座標、消点を導くための壁面相
互、天井、床などとの境界線、あるいは座標が定まった
3点ないし対応関係の判明した8点など、撮影対象と画
像及び視点との位置関係を定める点及び線のことを言
う。図3のように、画面A,Bの視点Sa、Sbを通る直線
をZ軸とし、撮影対象空間の方向にX軸、両軸に垂直に
Y軸を設定し、視点、基本構図、A、B画面上の各画素
の座標をこの新たに設定した座標系(以下、単に同一座
標系という)に変換する。ここで、Sa、Sbの座標はそれ
ぞれ(0,0,Zsa)、(0,0,Zsb)となる。尚、同座標系の
設定にあたっては、Z=0となる原点の位置は任意の箇所
でよい。
In the first stage, screens A, B, and A, in which the same object space or object is photographed from different angles.
The viewpoint (C) and the basic composition of the target space are determined, and the screens A, B, and (C) are placed in the space of the same coordinate system (FIG. 3).
Here, what is referred to as the basic composition is the coordinates of the reference frame that joins the two rectangular frames at a certain angle as referred to in the "stereoscopic data creation method", the mutual wall to guide the vanishing point, the ceiling, Points and lines that determine the positional relationship between the imaging target, the image, and the viewpoint, such as a boundary line with a floor or the like, or three points whose coordinates are determined, or eight points whose correspondences are known. As shown in FIG. 3, a straight line passing through the viewpoints Sa and Sb of the screens A and B is set as a Z axis, an X axis is set in the direction of the imaging target space, and a Y axis is set perpendicularly to both axes. The coordinates of each pixel on the B screen are converted to this newly set coordinate system (hereinafter simply referred to as the same coordinate system). Here, the coordinates of Sa and Sb are (0, 0, Zsa) and (0, 0, Zsb), respectively. In setting the coordinate system, the position of the origin at which Z = 0 is arbitrary.

【0042】同一座標系のZ軸を通る平面Y=αX(α
は任意の値)を仮定的に設定し、この平面Y=αXと
A,B画面の交わる線、lineAとlineBをそれぞれ求め
る。A画面上のlineA上の画素が表す撮影対象物上の点
の立体座標は視点Saと当該画素を通る延長線上にある。
即ち平面Y=αXにあるとも言える。同一の対象物上の
点を撮影した画面Bの画素の位置もこの平面Y=αXに
なければならない。言い換えれば、画面A,Bの各画素
あるいは各領域を照合するに際しては、lineA上の任意
の点に対応する画面B上の画素はlineB上にあり、その
他の画素ではあり得ないということができる。
A plane Y = αX (α) passing through the Z axis of the same coordinate system
Is arbitrarily set), and a line where the plane Y = αX intersects the screens A and B, lineA and lineB, respectively, is obtained. The three-dimensional coordinates of the point on the object to be photographed represented by the pixel on lineA on the screen A are on an extension line passing through the viewpoint Sa and the pixel.
That is, it can be said that the plane Y = αX. The position of the pixel on the screen B at which a point on the same object is photographed must also be on this plane Y = αX. In other words, when comparing each pixel or each area of the screens A and B, it can be said that a pixel on the screen B corresponding to an arbitrary point on the line A is on the line B and cannot be any other pixel. .

【0043】同一の撮影対象空間あるいは撮影対象物を
異なる角度から撮影した画面A、Bから撮影対象空間あ
るいは撮影対象物の立体データを求めるという課題は、
平面Y=αXと画面A,Bの交わる線lineA、lineB上の
点の照合を行うことによって、画面A上の各画素と画面
B上の各画素の対応関係を求め、その対応した画素の組
において、それぞれの視点と当該画素を結ぶ延長線上の
交点を求め、これを対象の空間座標として、その集合を
撮影対象空間あるいは撮影対象物の立体データとするこ
とに他ならない。
The problem of obtaining three-dimensional data of the object space or object from screens A and B in which the same object space or object is imaged from different angles is as follows.
The correspondence between each pixel on the screen A and each pixel on the screen B is obtained by collating points on the lines lineA and lineB where the plane Y = αX and the screens A and B intersect. , An intersection on the extension line connecting each viewpoint and the pixel is determined, and the intersection is used as space coordinates of the object, and the set is used as the stereoscopic data of the imaging space or the imaging object.

【0044】先に述べたように、lineA上の各画素とlin
eB上の各画素を常に一義的に対応させることは理論的に
は不可能である。しかし、画素の色データの類似性や周
辺画素との関係を用い、一定の制約要素を加えれば、li
neA上の点(画素)とlineB上の点(画素)を対応させる
方法を十分に実用的なレベルで構築することが可能であ
るし、全く同一の色データの画像領域は、通常は工業製
品であるため、その箇所については平面ないし単純な曲
面で推定しうる。
As described above, each pixel on lineA and lin
It is theoretically impossible to always uniquely correspond each pixel on eB. However, if a certain constraint element is added using the similarity of the color data of a pixel and the relationship with surrounding pixels, li
It is possible to construct a method for associating points (pixels) on neA with points (pixels) on lineB at a sufficiently practical level, and image areas with exactly the same color data are usually manufactured as industrial products. Therefore, the position can be estimated by a plane or a simple curved surface.

【0045】第二段階では、A、B両画像を色データの違
いによって複数の画像領域(以下、単に領域という)に
分割する。各画素の色データは彩度と明度によって構成
されている。二つの画素の色データの相違は、適当な相
色空間に基づき、距離その他相違の程度を示す適当な式
を作成し与える。例えば、 色データの相違の程度=(2画素の彩度の相違量)+
(2画素の明度の相違量) としてもよいし、彩度を重視し、上記式の彩度の部分の
み5倍とする式でもよい。
In the second stage, both the A and B images are divided into a plurality of image areas (hereinafter simply referred to as areas) depending on the difference in color data. The color data of each pixel is composed of saturation and lightness. The difference between the color data of the two pixels is based on an appropriate hue space to create and give an appropriate formula indicating the distance or other degree of difference. For example, the degree of difference in color data = (the amount of difference in saturation between two pixels) +
(The amount of difference in lightness between two pixels) or an expression in which saturation is emphasized and only the saturation portion of the above expression is increased by a factor of 5.

【0046】先に述べたように、同一点を表す複数の画
面上の画素は、必ずしも完全に同一な色データとはなら
ないため、一定の相違は許容する必要がある。上記のよ
うに任意に定めた式によって算定される数値が、任意に
定める一定量の範囲内であれば、これを許容範囲として
同じ色データと捉える。以下、「同一(な)色データ」と
述べている記述は、この許容範囲内の色データの相違で
あることを意味し、「完全に同一な色データ」とは区別
して用いる。
As described above, pixels on a plurality of screens representing the same point do not always have completely the same color data, so that a certain difference must be allowed. If the numerical value calculated by the formula arbitrarily determined as described above is within a predetermined arbitrarily determined range, this is regarded as the same color data as an allowable range. Hereinafter, the description “same (same) color data” means that the color data is within the allowable range, and is used separately from “completely identical color data”.

【0047】領域に分割する方法は、色データが一定の
程度以上に変化する箇所をチェックし、これを境界線と
して領域毎に分割する。同一の色であっても、見る角度
によって多少の色データの変化があることが予想される
ため、この変化の度合いは、この第二段階ではある程度
大きく取っておく。この場合、一の部位が模様を持って
いる場合、その模様毎に分割されることになる。しかし
模様が細かな場合など、画素の粗さに起因してA、B両画
面上での一対一対応が困難になることが予想されるた
め、分割された領域が一定数以下(通常は数個以内)の
画素数しか持たないような場合で、且つその近隣にも同
一色データの微細な領域がある場合は、それらは単独の
領域とはせず、その間に存する領域と併せて一の領域と
する。即ち、これは模様の一部であるとする。このよう
にして設定された各領域毎に、固有の番号を割り当て
る。
As a method of dividing into regions, a portion where the color data changes by a certain degree or more is checked, and this is divided into regions by using this as a boundary line. Even for the same color, it is expected that there will be some change in the color data depending on the viewing angle, so the degree of this change is set to some extent in this second stage. In this case, if one part has a pattern, it is divided for each pattern. However, it is expected that it will be difficult to make one-to-one correspondence on both A and B screens due to pixel roughness, such as when the pattern is fine, so the number of divided areas is less than a certain number (usually In the case where only the number of pixels is within the same range, and there are minute areas of the same color data in the vicinity thereof, they are not considered to be a single area, but are combined with the area between them. Area. That is, it is assumed that this is a part of the pattern. A unique number is assigned to each area set in this way.

【0048】また全ての画素n(Xn、Yn、Zn)に、それ
が位置する平面Y=αXのα値=Yn/Xnを与える。コンピ
ュータの画素ファイルには、各画素nが、以下のような
データを持つ形で格納される。A画面の各画素nには、
その画素が属する領域と一対一対応する可能性のあるB
画面の領域の番号が、B画面の各画素nには、その画素
が属する領域と一対一対応する可能性のあるA画面の領
域の番号が、それぞれ割り付けられる。(この段階で
は、まだ空白となっている。) 画素nのデータ形式:(画素番号、属する画面番号、X
座標、Y座標、Z座標、領域別番号、境界線上か否かの
判別、座標のα値、色データ(彩度、明度) 当該画素が属する領域が一対一対応する可能性のある他
方の画面上の複数の領域番号、当該画素が対応する可能
性のある他方画面上の複数の画素番号) 尚、画像分割の方法は、実施例2記載の方法の他、本項
で示すデータ形式に合致するデータ形式を設定すれば、
どのような方法を用いてもよい。
For all the pixels n (Xn, Yn, Zn), the α value of the plane Y = αX where they are located = Yn / Xn is given. Each pixel n is stored in the pixel file of the computer in a form having the following data. For each pixel n of the A screen,
B that may correspond one-to-one with the area to which the pixel belongs
The number of the area of the screen is assigned to each pixel n of the B screen, the number of the area of the A screen which may correspond one-to-one with the area to which the pixel belongs. (At this stage, it is still blank.) Data format of pixel n: (pixel number, screen number to which it belongs, X
Coordinates, Y coordinates, Z coordinates, area number, determination of whether or not the area is on a boundary line, α value of coordinates, color data (saturation, lightness) The other screen where the area to which the pixel belongs may correspond one-to-one. (A plurality of area numbers above, and a plurality of pixel numbers on the other screen that the pixel may correspond to) The image division method conforms to the data format described in this section in addition to the method described in the second embodiment. If you set the data format to
Any method may be used.

【0049】第三段階では、こうしてA、B画面それぞれ
に設定された領域の一対一対応関係を求める。同一撮影
対象物の同一領域は、視点Sa、Sb両方から同時に見えて
いる限り、A、B両画面それぞれに、いずれかの領域とし
て写し出されている。このとき、同一と判断する基準は
以下のとおりである。
In the third stage, the one-to-one correspondence between the areas set on the screens A and B is obtained. As long as the same area of the same object to be photographed can be simultaneously viewed from both the viewpoints Sa and Sb, the same area is displayed on either of the screens A and B as one of the areas. At this time, the criteria for judging the same are as follows.

【0050】イ)両領域に属する画素の中に、共通した
α値の範囲にある画素が存在する。 ロ)同一色データの画素が存在する。ハ)画面A上の画
素nが視点Saから画面Bの面と平行に通る平面より外側
に位置する場合、図3に示されるように、B画面の対応
する画素は、同一α値のlineB上で、且つ視点Saと画素
nを結ぶ線と平行に視点Sbから引いた直線とlineBの交
点より内側に存さなければならない。従ってA画面のあ
る部位が表す撮影対象部位のB画面における存在領域
は、A画面の当該部位の各α値において最も内側に位置
する画素毎にB画像における存在可能領域を算定し、そ
れらを併せた画面領域となる。以上3点は必要条件であ
る。
B) Among the pixels belonging to both regions, there are pixels in the range of the common α value. B) Pixels of the same color data exist. C) When the pixel n on the screen A is located outside the plane passing from the viewpoint Sa in parallel with the plane of the screen B, as shown in FIG. And a line drawn from the viewpoint Sb in parallel with the line connecting the viewpoint Sa and the pixel n, and must lie inside the intersection of lineB. Therefore, the existence area on the B screen of the imaging target part represented by a part on the A screen is calculated as the possible area in the B image for each of the innermost pixels in each α value of the part on the A screen. Screen area. The above three points are necessary conditions.

【0051】さらに、以下の条件を満たせば、一対一対
応している可能性が高い。 1)各領域の画素のα値の最大値は同じである。(誤差
範囲にある。) 2)各領域の画素のα値の最小値は同じである。(誤差
範囲にある。) 3)共通したα値の範囲の割合が多い。 これら1)から3)の条件を視覚的に説明すると、Y=α
Xのαを無限大から負の無限大まで次第に小さくしてい
くと、平面Y=αXはZ軸を支点に回転して、撮影対象物
の上から次第に降りて行くことになる。平面Y=αXが撮
影対象物のある部位の上に接したとき、この接点は視点
Saからも視点Sbからも同時に見えている点であり、通常
これは1点のみである。従って、同一部位であれば他の
部位の影になっていない限り、A、B両画面の同一領域の
α値の最大値と最小値は一致する。これが1点のみであ
れば、両画面の当該画素は一対一対応している。複数あ
れば、それらは平面Y=αX上に位置する平面を表してお
り、当該対象物の上部は平面で切られた形をしている。
最小値の点が複数ある場合も同様である。
Furthermore, if the following conditions are satisfied, there is a high possibility that one-to-one correspondence is established. 1) The maximum value of the α value of the pixel in each area is the same. (It is within the error range.) 2) The minimum value of the α value of the pixel in each area is the same. (It is in the error range.) 3) The ratio of the range of the common α value is large. Visually explaining these conditions 1) to 3), Y = α
As α of X is gradually reduced from infinity to negative infinity, the plane Y = αX rotates about the Z-axis and gradually descends from above the object to be photographed. When the plane Y = αX touches a part of the object,
It is a point that can be seen from both Sa and viewpoint Sb at the same time, and usually there is only one point. Therefore, the maximum value and the minimum value of the α value of the same region on both the A and B screens coincide unless the image is the shadow of another region if the region is the same. If this is only one point, the pixels on both screens correspond one-to-one. If there is more than one, they represent planes located on the plane Y = αX, and the upper part of the object has a shape cut off by the plane.
The same applies to a case where there are a plurality of minimum value points.

【0052】また、対象部位が突起状の部分を有する形
状をしている場合は、部分最大値(最小値)となる一点
のα値がA、B両画像で一致するため、この条件を用いて
さらに部位の一対一対応の候補を絞ることができる。但
し、いずれかの視点からは、対象部位のα値最大(最
小)となる部分が他の部位の影になって見えない場合、
この最大値、最小値は一致しないため、最大値、最小値
が一致しないからといって、同一部位を表す画像ではな
いと判断することはできない。 4)一対一対応する領域が包含する画素の色データの範
囲及び分布の状態は概ね一致する。模様があると判断し
た部位は、色データの範囲の組合わせ及びその分布の状
態が概ね一致する。この状態を評価する式は、任意に作
成する。 5)A、B両画面の各領域が、他の一対一対応している画
像領域に対し、A、B両画面において共通して同一方向
(左右)で隣接している。 6)A、B両画面の各領域が、他の一対一対応している画
像領域に対し、A、B両画面において共通して同一方向
(左右)にある。
When the target portion has a shape having a protruding portion, the α value at one point which is the local maximum value (minimum value) is the same in both the A and B images. In addition, candidates for one-to-one correspondence of parts can be further narrowed down. However, if the part with the maximum (minimum) α value of the target part cannot be seen from any viewpoint as a shadow of another part,
Since the maximum value and the minimum value do not match, it cannot be determined that the images do not represent the same part just because the maximum value and the minimum value do not match. 4) The range and distribution state of the color data of the pixels included in the one-to-one corresponding area substantially match. In the part determined to have the pattern, the combination of the range of the color data and the state of the distribution substantially match. An expression for evaluating this state is arbitrarily created. 5) Each area of the A and B screens is adjacent to the other one-to-one image area in the same direction (left and right) in both the A and B screens. 6) Each area of both A and B screens is in the same direction (left and right) in both A and B screens with respect to the other one-to-one image areas.

【0053】ある部位の奥又は手前に別の部位が位置し
ていれば、A、B両画面に於いて、対応すべき画像領域が
左右逆になる場合もある。従って、左右逆だからといっ
て同一部位でないとは限らない。但し、奥にある場合
は、A、B両画面共通に写し出されている部分が少ない可
能性がある。イ)からハ)の必要条件を満たし、1)、
2)の条件を満たす一対一対応関係が複数見つかるた
め、それらを元に1)から6)までの条件を満たす程度
を何らか適切な方法で評価し、評価の高いものから順に
一対一対応を定め、この一対一対応を所与の条件とし
て、再度評価をやり直して次の一対一対応している領域
の組を求め、これを繰り返すことによってA、B両画面の
各画像領域に一対一対応関係を定めることができる。さ
らに、評価方法を複数用意し、それぞれが定める一対一
対応関係の中で最も多数の領域の対応を定めることがで
きた組み合わせとする方法でもよい。
If another part is located behind or in front of a certain part, the corresponding image area may be reversed on both the A and B screens. Therefore, just because the left and right are reversed does not necessarily mean that they are not the same part. However, if it is located at the back, there is a possibility that the portion projected to both the A and B screens is small. Satisfies the requirements of a) to c), 1),
Since a plurality of one-to-one correspondences satisfying the condition of 2) can be found, the degree of satisfying the conditions of 1) to 6) is evaluated based on them, by an appropriate method, and the one-to-one correspondence is evaluated in descending order of evaluation. With this one-to-one correspondence as a given condition, the evaluation is performed again to find the next set of one-to-one correspondence areas, and by repeating this, the one-to-one correspondence with each image area of both A and B screens Relationships can be defined. Furthermore, a method may be used in which a plurality of evaluation methods are prepared and a combination in which the correspondence of the largest number of regions in the one-to-one correspondence determined by each of the evaluation methods can be determined.

【0054】3箇所以上から撮影した画像を用いる場合
は、同一空間に置いた各3枚の画面A、B、Cにおい
て、以下の関係が成立する。尚、3枚の画面の視点をそ
れぞれSa、Sb、Scと置く。画面Aの任意の画素na(α値
=αaとする)に対応する画面B上の画素は、視点SaとS
bを結ぶ直線をZ軸とした同一座標系(X,Y,Z)に於い
て、同じY=αc*Xとなる直線上にあり、同じく対応
する画面C上の画素は、視点SaとScを結ぶ直線をZ'軸
とした同一座標系(X',Y',Z')に於いて、同じY'=αb
*X'となる直線上にある。このY=αc*Xとなる直線
上にある画面Bの画素と、Y'=αb*X'となる直線上
にある画面Cの画素は、視点Sb、Scを結ぶ線をZ"軸とす
る同一座標系(X",Y",Z")おいて、Y"=αa*X"となる
同一平面上に存在しなければならない。
When images taken from three or more locations are used, the following relationship is established for each of three screens A, B, and C placed in the same space. The viewpoints of the three screens are set to Sa, Sb, and Sc, respectively. Pixels on the screen B corresponding to an arbitrary pixel na (assuming α value = αa) on the screen A are the viewpoints Sa and S
In the same coordinate system (X, Y, Z) using the straight line connecting b as the Z axis, the pixels on the same straight line of Y = αc * X, and the corresponding pixels on the screen C are the viewpoints Sa and Sc In the same coordinate system (X ', Y', Z ') with the straight line connecting
It is on the straight line * X '. The pixels of the screen B on the straight line where Y = αc * X and the pixels of the screen C on the straight line where Y ′ = αb * X ′ have a line connecting the viewpoints Sb and Sc as the Z ″ axis. In the same coordinate system (X ", Y", Z "), they must exist on the same plane where Y" = αa * X ".

【0055】画素の集合である画像領域の一対一対応に
ついても同様のことが言え、0051項の1)から3)
が3枚の画像の各2枚において満たされれば、この一対
一対応関係はほぼ確実に確認できたと言える。
The same can be said for the one-to-one correspondence of the image area which is a set of pixels.
Is satisfied in each two of the three images, it can be said that this one-to-one correspondence has been almost certainly confirmed.

【0056】以上の条件に基づいて、A、B両画面上の
各領域の一対一対応がなされる。一対一対応されなかっ
た部位は、一方の画像のみに映し出された部位である
か、一対一対応する候補が複数あり、絞り切れていな
い部位である可能性が高い。A、B両画面の各領域の対応
関係をモニターに表示し確認するとともに、視覚的に一
対一対応している領域が他にもあると判断できる場合な
どは、それを入力するし、0049項ないし0055項
のプロセスを追加して行うことで補正する。
Based on the above conditions, each area on both the A and B screens has a one-to-one correspondence. It is highly probable that a part that is not one-to-one correspondence is a part that is displayed only in one image or a part that has a plurality of candidates that correspond one-to-one and is not fully squeezed. Display and confirm the correspondence between each area of both A and B screens on the monitor, and if it can be visually judged that there is another area that has one-to-one correspondence, enter it and enter section 0049 The correction is performed by additionally performing the processes of the items 0055 to 0055.

【0057】第四段階では、A、B両画面において一対一
対応した領域の組に於いて、それが包含する画素毎の対
応関係を求める。このプロセスは、左右の位置関係が多
数の他の領域と一致する領域から進める。これを優先し
て立体データを作成してから後に、左右が逆となる領域
について画素単位での照合を行えば、他の部位の影とな
る不可視領域に位置するような画素の対応の組み合わせ
を除外して計算できる。
In the fourth stage, a correspondence relationship between pixels included in a set of areas corresponding one-to-one on both the A and B screens is obtained. This process proceeds from a region where the left and right positional relationship matches many other regions. After creating three-dimensional data with priority given to this, if matching is performed on a pixel-by-pixel basis in an area where the left and right are reversed, a corresponding combination of pixels located in an invisible area that is a shadow of another part will be obtained. Excluded and can be calculated.

【0058】尚、全く同一の色データの画素が連続して
領域を形成する特殊な場合は、それらの画素を厳密に対
応させる方法はありえない。この場合は、その領域を別
途の領域とし、A、B両画面における当該領域の境界線上
の画素から0035項に従って立体データを導き、境界
線の立体データ上の同一α値の点と点毎に直線で結んで
作成される曲面を当該領域の対象立体データとする。
In a special case in which pixels of exactly the same color data form a continuous area, there is no way to exactly correspond those pixels. In this case, the area is set as a separate area, and three-dimensional data is derived from pixels on the boundary line of the relevant area in both the A and B screens in accordance with the term 0035. A curved surface created by connecting the straight lines is set as target three-dimensional data of the area.

【0059】第五段階では、以下の条件の下に、各画素
の対応関係を定める。尚、以下の説明に於いて、画面の
垂直方向にα軸を取り、同一α値線上で右の行くほどβ
値が高くなるようなβ軸を持つ、変則的な座標系を想定
する。 一対一対応する画素の色データはほぼ同一でなけれ
ばならない。先に述べたように、画素の密度その他に起
因して、対応する画素の色データが微妙に異なることが
予想されるため、一定範囲の相違であれば同一の色デー
タとして捉える。 両方の画素のα値は同一でなければならず、従って
A画面の画素に対応するB画面の画素のα値は、A画面
の画素のα値と画素密度に起因する誤差範囲でなければ
ならない。尚、以下の式よりも大きな誤差の範囲を許容
してもよい。A画面の画素α値をtanθ1、当該画素の直
上の画素のα値をtanθ2、当該画素の直下の画素のα値
をtanθ0とおいた場合、 tan[(θ1+θ2)/2]≧(B画面の画素α値)≧tan[(θ1
+θ0)/2] B画面の画素に対応するA画面の画素についても同様。
In the fifth stage, the correspondence of each pixel is determined under the following conditions. In the following description, the α-axis is taken in the vertical direction of the screen, and β moves to the right on the same α-value line.
Assume an anomalous coordinate system with a β axis with a higher value. The color data of the one-to-one corresponding pixels must be substantially the same. As described above, it is expected that the color data of the corresponding pixel is slightly different due to the density of the pixel and the like, so that a difference within a certain range is regarded as the same color data. The alpha value of both pixels must be the same, thus
The α value of the B screen pixel corresponding to the A screen pixel must be within an error range caused by the α value of the A screen pixel and the pixel density. Note that a range of an error larger than the following equation may be allowed. If the pixel α value of the A screen is tan θ1, the α value of the pixel immediately above the pixel is tan θ2, and the α value of the pixel immediately below the pixel is tan θ0, tan [(θ1 + θ2) / 2] ≧ (pixel of the B screen α value) ≧ tan [(θ1
+ Θ0) / 2] The same applies to pixels on screen A corresponding to pixels on screen B.

【0060】 画面A上の画素nが、視点Saから画面
Bの面と平行に通る平面より外側に位置する場合、図3
に示されるように、B画像の対応する画素は、同一α値
のlineB上で、且つ視点Saと画素nを結ぶ線と平行に視
点Sbから引いた直線とlineBの交差する交点より内側に
存さなければならない。画面A上の画素についても同
様。 一方の画面上の複数の画素が他方の画面上の単一の
画素に対応することはありうるが、さらにその当該複数
の画素の一つが他方画面上の他の画素とも同時に対応す
ることはあり得ない。
When the pixel n on the screen A is located outside the plane passing from the viewpoint Sa in parallel with the plane of the screen B, FIG.
As shown in the figure, the corresponding pixel of the B image exists on line B having the same α value and inside the intersection of the line B and the line drawn from the viewpoint Sb in parallel with the line connecting the viewpoint Sa and the pixel n. Have to do. The same applies to the pixels on the screen A. Multiple pixels on one screen may correspond to a single pixel on the other screen, but one of the multiple pixels may also simultaneously correspond to another pixel on the other screen. I can't get it.

【0061】 同一平面Y=αX上において、両視点
から同時に見えている任意の2点を表す、対応する画素
の組nakとnbp、najとnbqにおいては、nakのβ値<najの
β値ならばnbpのβ値≦nbqのβ値、nbpのβ値<nbqのβ
値ならばnakのβ値≦najのβ値という関係が成り立つ。 一方の画面の任意の画素najとその直上の隣接画素n
ak、直下の隣接画素nalがそれぞれ対応する他方画面の
画素nbp、nbq、nbrにおいては、画素nbpは、連続した平
面ないし曲面上にあるため、図4にしめすような画素na
kが対応する画素nbqと画素nalが対応する画素nbrを対角
線とした同一α値の長方形の範囲にある画素あるいはそ
の両隣に位置する画素のいずれかに少なくとも対応す
る。この六つの制約条件を元に、A、B両画面の各画素の
対応関係を求める。(図4)
On the same plane Y = αX, for a pair of corresponding pixels nak and nbp and naj and nbq representing two arbitrary points simultaneously viewed from both viewpoints, if β value of nak <β value of naj For example, β value of nbp ≦ β value of nbq, β value of nbp <β of nbq
If it is a value, the relationship of β value of nak ≦ β value of naj is established. Any pixel naj on one screen and adjacent pixel n immediately above it
In the pixels nbp, nbq, and nbr on the other screen to which ak and the immediately adjacent pixels nal correspond, respectively, the pixel nbp is on a continuous plane or curved surface, so that the pixel na as shown in FIG.
At least k corresponds to either a pixel in the range of a rectangle having the same α value with the pixel nbq corresponding to the pixel nnal and the pixel nbr corresponding to the pixel nal as a diagonal, or a pixel located on both sides thereof. Based on these six constraints, the correspondence between pixels on both the A and B screens is determined. (FIG. 4)

【0062】全ての一対一対応した領域について画素の
照合を終了した段階で、一対一対応しなかった領域の画
素について、残された領域を一まとまりとして、不可視
領域での対応は不可という条件を加え0059項から0
061項のプロセスを再度行い、その一対一対応の可能
性を確認する。
At the stage where the pixel comparison has been completed for all the one-to-one correspondence regions, the condition that the pixels in the region which did not correspond one-to-one, the remaining regions are grouped and the correspondence in the invisible region is impossible. Addition from 0059 to 0
The process in section 061 is performed again to confirm the possibility of the one-to-one correspondence.

【0063】画像の精度上の限界などから、対応すべき
画素相互の色データが異なる場合などを想定すると、厳
密に言えば、以上の6要素を組み合わせて一対一対応す
る組を求める方法は一義的には定まらない。そこで何ら
かの条件を加えて、対応する画素の数が最も多く、且つ
対応する画素の色データの相違量の合計が最も少なくな
る最適な組み合わせ(画素単位の対応関係)を求める。
尚、この二つの評価をどのように用いるかは任意であ
る。各領域が包含する画素数は有限であるため、高速コ
ンピュータを用いて先の条件を満たす画素の組み合わせ
を全て算出し、そこにおいて対応する画素の数が最も多
くなる組み合わせ、対応する画素の色データの相違の合
計が最も少なくなる組み合わせなどを判別することが可
能となる。但しこれは計算量が膨大となるため、実施例
ではより簡便な方法を記す。
If it is assumed that the color data of the pixels to be handled is different from each other due to limitations on the precision of the image, etc., strictly speaking, the method of obtaining the one-to-one correspondence by combining the above six elements is univocal. It is not fixed. Therefore, by adding some conditions, an optimal combination (correspondence relationship in pixel units) in which the number of corresponding pixels is the largest and the total amount of difference in color data of the corresponding pixels is the smallest is obtained.
How to use these two evaluations is arbitrary. Since the number of pixels included in each region is finite, all combinations of pixels satisfying the above conditions are calculated using a high-speed computer, and the combination in which the number of corresponding pixels is the largest, color data of the corresponding pixels is calculated. It is possible to determine the combination or the like that minimizes the sum of the differences. However, since this requires a large amount of calculation, a simpler method is described in the embodiment.

【0064】第六段階では、撮影対象の立体データを求
める。A、B両画面の画素単位での対応する画素の組が定
まれば、対応した画素それぞれと視点とを結ぶ直線の延
長上の交点が、その一対一対応した画素の組が表す対象
の立体空間上の座標となる。画素が有限であるため、こ
の二本の直線は厳密には微妙にすれ違う可能性が高い
が、視点Saから伸ばされた直線上の最接近点を求めて立
体点とし、この立体点にA画面上の該当画素の色データ
を与える。B画面上の画素からも同様にして立体点を求
める。最接近点を求める方法は「立体データ作成方法」
に記述してあるように、それぞれの直線上の任意の点を
各1個の変数を持つ式で表し、その2点間の距離を当該
2つの変数を持つ式で求め、それぞれの変数で微分した
式の値が共に0となる条件によって最接近点を求めるこ
とができる。このようにして求めた3次元空間上の点の
集合が、撮影した対象の立体データであると推定され
る。
In the sixth stage, three-dimensional data to be photographed is obtained. Once a set of corresponding pixels is determined in pixel units on both A and B screens, the intersection of the extension of a straight line connecting each corresponding pixel and the viewpoint is the target solid represented by the corresponding one-to-one set of pixels. Coordinates in space. Since the pixels are finite, it is highly likely that these two straight lines pass each other delicately.However, the closest point on the straight line extended from the viewpoint Sa is obtained as a solid point, and this solid point is used as the A screen. The color data of the corresponding pixel is given. Similarly, a solid point is obtained from a pixel on the B screen. The method to find the closest point is "3D data creation method"
As described in, an arbitrary point on each straight line is represented by an expression having one variable, and the distance between the two points is obtained by an expression having the two variables. The closest approach point can be obtained under the condition that both the values of the above equations become 0. The set of points in the three-dimensional space obtained in this way is estimated to be the stereoscopic data of the photographed target.

【0065】別の方法として、一方の画面A上の任意の
画素nakが対応する他方画面Bの画素nbp及び画面上でそ
れに隣接する4画素nbq1、nbq2、nbq3、nbq4において、
画素nakのα値と同一線上で、これらの4画素と画素nbp
の色データから画素nakの色データに最も近似する位置
を比例按分で求め、その点を画面B上で対応する仮想画
素の座標とし、その仮想画素と視点Sbを結ぶ直線と画素
nakと視点Saを結ぶ直線の延長上で交差する点を立体デ
ータの座標とし、画素nakの色データを与える方法を用
いれば、より精度の高い立体データを作成できる。画面
Bの任意の画素nbpについて同様の操作を行う。以上に
よって、同一対象を写した2枚の写真から、撮影対象の
立体データが得られる。尚、同一α値線上で、色データ
を用いて比例按分によって位置を定める方法は、nak、n
bq1〜4の色データによる適当な任意の式を作成して用い
る。以上の方法とは別に特開平11−96374号公報
に開示されているような公知のポーティング処理に基づ
く立体形状の生成、テクスチャマッピングを行ってもよ
い。
As another method, an arbitrary pixel nak on one screen A corresponds to a pixel nbp on the other screen B and four pixels nbq1, nbq2, nbq3, and nbq4 adjacent thereto on the screen.
On the same line as the α value of pixel nak, these four pixels and pixel nbp
From the color data, the position closest to the color data of pixel nak is obtained by proportional proportional division, and that point is set as the coordinates of the corresponding virtual pixel on screen B, and the straight line and the pixel connecting the virtual pixel and viewpoint Sb
If a method is used in which a point that intersects on an extension of a straight line connecting the nak and the viewpoint Sa is used as the coordinates of the three-dimensional data and the color data of the pixel nak is used, more accurate three-dimensional data can be created. The same operation is performed for an arbitrary pixel nbp on the screen B. As described above, three-dimensional data of a shooting target is obtained from two photographs of the same target. The method of determining the position on the same α-value line by proportional division using color data is nak, n
An appropriate arbitrary expression based on the color data of bq1 to bq4 is created and used. Apart from the above method, a three-dimensional shape may be generated and texture mapping may be performed based on a known porting process as disclosed in Japanese Patent Application Laid-Open No. H11-96374.

【0066】得られた立体データから、同一部位の境界
線がA、B両画像から共通に見えると判別できた場合、即
ち、その境界線と視点Sa、Sbとの間に視線を遮る障害物
がないと判断できた場合などにおいて、この境界線は先
に示した1本のスリット光源を用いて立体データを得る
方法と同じ方法によって、その立体データを作成し、こ
こで得られた立体データの検証を行い、より精度の高い
立体データを得ることができる。又、これにより得られ
た立体データを用いて、立体データの修正を行うことが
できる。即ち、これを所与として実施例のプロセスを再
度行うことで、より精度の高い立体データが作成され
る。
When it is determined from the obtained three-dimensional data that the boundary line of the same part can be seen in both the A and B images, that is, an obstacle that blocks the line of sight between the boundary line and the viewpoints Sa and Sb. When it is determined that there is no three-dimensional data, the three-dimensional data is created by the same method as that for obtaining three-dimensional data using one slit light source described above, and the three-dimensional data obtained here is obtained. , And more accurate three-dimensional data can be obtained. Further, the three-dimensional data can be corrected using the three-dimensional data obtained thereby. That is, by giving this as a given value and performing the process of the embodiment again, three-dimensional data with higher accuracy is created.

【0067】同一対象を撮影した画面が三枚以上あった
場合、その各二枚毎に上記0049項から0061項の
操作を平行して行い、それらの計算結果を途中段階で適
宜比較することによって、システムの精度をより一層高
めることが可能になる。画面が三枚であるとき、各2枚
の画面の組毎に上記の操作を平行して行うと、撮影対象
表面の一の点の画面上のα値は、各二枚の画面の組毎に
同一である。従って、領域単位での一対一対応を設定す
る場合や画素単位の対応関係を設定する場合に、同一α
値となる図3のlineA、lineB、同様にlineCは、各画面
の組み合わせ毎に異なってくる。従って、比較する領域
や画素が異なるため、それぞれの画面において算定した
結果を比較検討し、それが一致する対応関係以外は排除
して、より精度の高い立体データを作成することが可能
となる。
When there are three or more images of the same subject, the operations of the above-mentioned items 0049 to 0061 are performed in parallel for each two images, and the calculation results are appropriately compared in the middle stage. Thus, the accuracy of the system can be further improved. When the above operation is performed in parallel for each set of two screens when there are three screens, the α value of one point on the screen of the surface to be captured becomes Is the same as Therefore, when setting a one-to-one correspondence in a region unit or setting a correspondence relationship in a pixel unit, the same α is set.
The values of lineA and lineB in FIG. 3 as well as lineC similarly differ for each combination of screens. Therefore, since the regions and pixels to be compared are different, the results calculated on the respective screens are compared and examined, and except for the correspondences that match, it is possible to create more accurate three-dimensional data.

【0068】先に述べたように、A、B両画面において
は、視点、画面の設定時の誤差によるズレやカメラの癖
や照明の角度による色データの測定誤差が生じている可
能性がある。各画面を多数の領域に分割して照合した際
にα値の最大、最小箇所を照合しているが、通常はこの
α値が一致するべき領域の組が多数あるため、これに基
づいて画面の位置を修正することが可能である。この一
致するべきα値の画素の組が統計上有意な数を得られた
場合で、且つその画素の組に共通した傾向が見られた場
合、即ち、いずれの組においても片方の画面のα値が他
方の画面のαに対して共通して低い、あるいは色データ
の彩度、明度が共通して低いことが統計学上有意なレベ
ルで判別できたときは、その平均値だけ、画面の高さを
高める、あるいは画面上の各画素の彩度、明度を修正す
ることによって、画素相互のより正確な照合を行うこと
が可能になる。
As described above, in both the A and B screens, there is a possibility that a deviation due to an error in setting the viewpoint and the screen, and a measurement error of color data due to a camera habit or an illumination angle may occur. . When each screen is divided into a large number of regions and collated, the maximum and minimum parts of the α value are collated, but usually there are many sets of regions where this α value should match, so the screen Can be corrected. When a statistically significant number of pixels having the same α value is obtained and a tendency common to the pixel set is observed, that is, in each case, α If it can be determined at a statistically significant level that the value is low in common with α of the other screen, or the saturation and brightness of the color data are low in common, only the average value of the screen By increasing the height or correcting the saturation and brightness of each pixel on the screen, more accurate matching between pixels can be performed.

【0069】また、操作者の入力ないし一度出た結果に
基づいてプロセスを反復する場合など、領域の連続性が
保証されていれば、一対一対応していると考えられる
A、B両画面の同一Y=αX線上の両端の画素の(色収差
を補正した上での)比較によって、その間(同一Y=α
X線上)の画素の色相を補正し、色相の微妙な変化をよ
り正確に判別することも可能である。
If the continuity of the area is guaranteed, for example, when the process is repeated based on the input from the operator or the result obtained once, it is considered that there is a one-to-one correspondence.
By comparing (after correcting chromatic aberration) the pixels at both ends on the same Y = α X-ray of both the A and B screens, the same (Y = α)
It is also possible to correct the hue of the pixel (on the X-ray) and to determine a subtle change in the hue more accurately.

【0070】実施の形態3.次に、同一撮影空間を任意
に撮影した複数の画像から3以上8以内の複数の点を照
合してカメラの視点を決定し、対象空間の立体データを
作成するシステムについて記す。「立体データ作成方
法」では、静止画像から対象空間の一部の座標と画像及
び視点の位置関係を同一座標系に置いて、その相対関係
を定める方法として、対象空間の壁面、床面あるいは基
準となる枠などを用いる方法、平行四辺形を構成する4
点の座標を用いる方法、立体空間における座標が判明し
ている3点を用いる方法を示している。これらの方法を
用いて、複数の画面の精緻な又は大凡の基本構図を求
め、それらを同一座標系に置くことができる。この場
合、例えば一の画像の基本構図は壁面、床などを用い、
そこに於いて定めた座標を用いて、他方の画像では3点
の座標から基本構図を求めてもよい。また、窓枠などの
長方形を共通に用いてもよい。
Embodiment 3 Next, a system will be described in which a plurality of points within a range of 3 to 8 are collated from a plurality of images arbitrarily photographed in the same photographing space to determine the viewpoint of the camera, and create stereoscopic data of the target space. In the “3D data creation method”, the coordinates of a part of the target space from the still image and the positional relationship between the image and the viewpoint are placed in the same coordinate system, and as a method for determining the relative relationship, the wall surface, floor surface, or reference Method using a frame or the like, which constitutes a parallelogram 4
A method using point coordinates and a method using three points whose coordinates in a three-dimensional space are known are shown. Using these methods, a fine or approximate basic composition of a plurality of screens can be determined and placed in the same coordinate system. In this case, for example, the basic composition of one image uses a wall surface, a floor, etc.
Using the coordinates determined there, the basic composition may be obtained from the coordinates of three points in the other image. Further, a rectangle such as a window frame may be commonly used.

【0071】一の画面の3箇所の画素が表す撮影対象点
の座標が判明しているとき、その座標をm(Xm、Ym、
Hm) m=1、2、3と置く。これを写し出す画面の大
きさを所与とすると、画面と視点の位置を定める変数
は、画面中央の座標(XO、YO、HO)、画面の傾き角
度θx、θy、θh、焦点距離Lの七つである。この3点
を写し出す画面上の3点(Vm、Zm)m=1、2、3の
同一座標系に於ける座標(Xm'、Ym'、Hm') 、視点
の同一座標系に於ける座標(Xs、Ys、Hs)は、これ
ら七つの変数の関数(Fxm、Fym、Fhm)m=1、2、
3及び(Fxs、Fys、Fhs)として表される。これに対
し、この画面において各画素が撮影対象点の投影された
箇所に所在することを示す式は、以下の3組の3連立方
程式で表される。
When the coordinates of the object point represented by the three pixels on one screen are known, the coordinates are represented by m (Xm, Ym,
Hm) Set m = 1,2,3. Given the size of the screen on which this is projected, the variables that determine the position of the screen and the viewpoint are the coordinates of the center of the screen (Xo, Yo, Ho), the screen tilt angles θx, θy, θh, and the focal length L. One. Coordinates (Xm ', Ym', Hm ') of the three points (Vm, Zm) m = 1, 2, 3 on the screen on which these three points are projected, and coordinates of the viewpoint in the same coordinate system (Xs, Ys, Hs) is a function (Fxm, Fym, Fhm) of these seven variables, m = 1, 2,
3 and (Fxs, Fys, Fhs). On the other hand, an expression indicating that each pixel is located at the projected position of the imaging target point on this screen is expressed by the following three sets of three simultaneous equations.

【0072】[0072]

【数1】 (Equation 1)

【0073】この3連立方程式は、以下のような3組の
2連立方程式に書き直せ、計6方程式が得られる。 (Xm−Fxs)*(Fym−Fys)=(Ym−Fys)*(F
xm−Fxs) (Xm−Fxs)*(Fhm−Fhs)=(Hm−Fhs)*(F
xm−Fxs) 7変数に対し6方程式だけでは解は求まらず、別の条件
を加える必要がある。
The three simultaneous equations can be rewritten into the following three sets of two simultaneous equations, and a total of six equations are obtained. (Xm-Fxs) * (Fym-Fys) = (Ym-Fys) * (F
xm-Fxs) (Xm-Fxs) * (Fhm-Fhs) = (Hm-Fhs) * (F
xm-Fxs) A solution cannot be obtained with only 6 equations for 7 variables, and another condition needs to be added.

【0074】「立体データ作成方法」では、航空写真な
どの場合において、画像内に3次元座標の判明している
3点を用いて、その3点と画像面、視点を同一座標系に
おく方法を発案している。以下、それを引用し、説明を
補完する。「地表面の高低差が大きく、平面として平行
四辺形のポイントを抽出できないときでも、地表面の位
置と標高が既知のポイントが3点解っており、写真上で
その箇所を特定できれば、以下の方法によって画像を地
表画面(と同一の座標系置き、その各画素の座標をその
同一座標系)に変換し、複数の視点からの地表画面を照
合する(同一座標系に置く)ことによって、地形を正確
に確定できる。
In the "stereoscopic data creation method", in the case of an aerial photograph or the like, a method of using three points whose three-dimensional coordinates are known in an image and placing the three points, the image plane, and the viewpoint in the same coordinate system. Has invented. Hereafter, it is quoted and the explanation is supplemented. "Even when the height difference of the ground surface is large and a parallelogram point cannot be extracted as a plane, three points with known positions and elevations on the ground surface are known, and if that point can be identified on the photograph, By converting the image to the ground surface screen (with the same coordinate system as the above, and the coordinates of each pixel in the same coordinate system) according to the method, and comparing the ground surface screen from multiple viewpoints (with the same coordinate system), Can be determined accurately.

【0075】この場合、当然に画像の視線方向は下方に
傾斜しているが、その際の画像の左右は水平に保たれて
いる必要がある。即ち、カメラの両端を水平に保って撮
影するか、画像中に水平な線を落とし込める機能を持つ
カメラであることが望ましい。後者の場合は、画像中心
を軸に画像を水平に回転させてから計算する。・・・以
下、中略 画像の中心点を(V0、Z0)とおく。画像中心から上下に
走る線をV=0とし、その地表面への投影線を地表面のY
軸としてX=0を与え、地表のX座標、Y座標を変換す
る。以下、図4のD点は無視する。注:ここで「画像を
水平に保つ」と言っているのは、視点から見て、画像の
Z軸と地表のX軸が完全に一致して見え、且つ画像のV
軸が地表面のH=0となる平面に平行に位置することを
言う。
In this case, the line of sight of the image is naturally inclined downward, but the left and right sides of the image at that time must be kept horizontal. That is, it is desirable that the camera has a function of taking pictures while keeping both ends of the camera horizontal or dropping a horizontal line in an image. In the latter case, the calculation is performed after rotating the image horizontally about the center of the image. ... The center point of the image is set to (V0, Z0). The line running up and down from the center of the image is assumed to be V = 0, and the projected line on the ground surface is defined as Y on the ground surface.
X = 0 is given as an axis, and the X and Y coordinates of the ground surface are converted. Hereinafter, point D in FIG. 4 is ignored. Note: Here, "keeping the image horizontal" means that, from the viewpoint, the Z axis of the image and the X axis of the ground surface appear completely coincident, and the V
The axis is located parallel to the plane of the ground surface where H = 0.

【0076】その結果の画像上の3点の座標をA(Va、
Za)、B(Vb、Zb)、C(Vc、Zc)とし、地表面の座標
をA'(Xa、Ya、Ha)、B'(Xb、Yb、Hb)、C'(Xc、Y
c、Hc)、視点の座標を(Xs、Ys、Hs)とする。・・・
以下、中略 3点から求める場合は、(図6)(本特許願では図4)
のXs、Zs、θ、Zq、Hs、Ysは以下の式により求められ
る。注:「立体データ作成方法」の図6ではφと表記さ
れていたが、これは図4のとおりθとすべきところの校
正漏れである。また、A,B,Cの各2点を結ぶ線のい
ずれかが画面と平行に位置するような3点の組を選択す
ると、以下の式は解を得られなくなるので注意を要す
る。
The coordinates of the three points on the resulting image are represented by A (Va,
Za), B (Vb, Zb), C (Vc, Zc), and the coordinates of the ground surface are A '(Xa, Ya, Ha), B' (Xb, Yb, Hb), C '(Xc, Y
c, Hc) and the coordinates of the viewpoint are (Xs, Ys, Hs). ...
In the following, in the case of obtaining from three points, (FIG. 6) (FIG. 4 in the present patent application)
Xs, Zs, θ, Zq, Hs, and Ys are obtained by the following equations. Note: In FIG. 6 of “3D data creation method”, φ is indicated, but this is a calibration omission that should be θ as shown in FIG. Note that if a set of three points is selected such that any of the lines connecting the two points A, B, and C is positioned parallel to the screen, the following equation cannot be solved, and care must be taken.

【0077】Xs = 0、fa=Xa/Va、fb=Xb/Vb、fc=Xc/Vc、
F=Ya*(fb-fc)+Yb*(fc-fa)+Yc*(fa-fb)とおいて、Zs=(Y
a*(fb*Zb-fc*Zc)+Yb*(fc*Zc-fa*Za)+Yc*(fa*Za-fb*Zb))
/Fsinθ=F/[fa*Za*(fb-fc)+fb*Zb*(fc-fa)+fc*Zc*(fa
-fb)] G=Ha*(fb-fc)+Hb*(fc-fa)+Hc*(fa-fb)とおいて、 Zq=(Ha*(fb*Zb-fc*Zc)+Hb*(fc*Zc-fa*Za)+Hc*(fa*Za-fb
*Zb))/G cosθ=G/[fa*Za*(fb-fc)+fb*Zb*(fc-fa)+fc*Zc*(fa-f
b)] Hs=Xa*(Zq-Za)*cosθ/Va+Ha、Ys=Ya-Xa*(Za-Zs)*sinθ/
Va 」
Xs = 0, fa = Xa / Va, fb = Xb / Vb, fc = Xc / Vc,
F = Ya * (fb-fc) + Yb * (fc-fa) + Yc * (fa-fb), Zs = (Y
a * (fb * Zb-fc * Zc) + Yb * (fc * Zc-fa * Za) + Yc * (fa * Za-fb * Zb))
/ Fsinθ = F / [fa * Za * (fb-fc) + fb * Zb * (fc-fa) + fc * Zc * (fa
-fb)] G = Ha * (fb-fc) + Hb * (fc-fa) + Hc * (fa-fb), and Zq = (Ha * (fb * Zb-fc * Zc) + Hb * ( fc * Zc-fa * Za) + Hc * (fa * Za-fb
* Zb)) / G cosθ = G / [fa * Za * (fb-fc) + fb * Zb * (fc-fa) + fc * Zc * (fa-f
b)] Hs = Xa * (Zq-Za) * cosθ / Va + Ha, Ys = Ya-Xa * (Za-Zs) * sinθ /
Va "

【0078】画像の座標と地表面の座標を同一座標系に
置くには、画像中の3点とは別に、画像のV軸と地表面
のX軸を同一平面に位置させ、V軸をH=0平面に平行
に置く必要がある。ここに、初期設定の誤差が生じる原
因が生じる。画面が前項で述べた意味で完全に水平に保
たれていない場合は、前項で求めたsinθの二乗とcosθ
の二乗の和は完全に1にはならない。このように「立体
データ作成方法」でも画面の中央線を撮影対象の対応す
る箇所に合わせるなどの操作を加えており、焦点距離等
何らかの条件を加えて0071項から0073項の解が
求まる。
In order to place the coordinates of the image and the coordinates of the ground surface in the same coordinate system, apart from the three points in the image, the V axis of the image and the X axis of the ground surface are located on the same plane, and the V axis is H = 0 must be placed parallel to the plane. Here, the cause of the error of the initial setting occurs. If the screen is not kept completely horizontal in the sense described in the previous section, the square of sinθ found in the previous section and cosθ
Do not add up to 1. As described above, even in the “three-dimensional data creation method”, an operation such as adjusting the center line of the screen to the corresponding position of the imaging target is added, and the solutions of the items 0071 to 0073 are obtained by adding some conditions such as the focal length.

【0079】しかし、実際の適用に際しては、使用する
カメラの焦点距離を予め計測しておく、画面と地図の中
心線を重ねる、撮影対象建築物から概ねの画像中心線の
座標を把握するなどの方法で、比較的高い精度で追加条
件を加えることができ、求める解に近い近似解を得るこ
とができる。このような作業と0074項から0077
項のような簡易な式によって、比較的精度の高い近似解
を求め、それ自体での活用を図る、実施例に記載するよ
うな初期値を得て計算プロセスを短縮するなどの効果が
期待できる。
However, in actual application, the focal length of the camera to be used is measured in advance, the center line of the screen is overlapped with the map, and the coordinates of the approximate image center line from the photographing target building are grasped. With the method, additional conditions can be added with relatively high accuracy, and an approximate solution close to the desired solution can be obtained. Such work and 0074 to 0077
By using a simple equation such as a term, it is possible to expect an effect such as obtaining a relatively accurate approximate solution and utilizing it by itself, and obtaining an initial value as described in the embodiment to shorten the calculation process. .

【0080】撮影対象点の座標が判明している画素3点
と、同一対象点を写していることのみ判別した2点を共
有する画像2枚を用いれば、2枚の画面と視点を同一の
座標系に置くことができる。2枚の画面と位置設定に於
ける変数の数は0071項から0073項と同様、各7
個、一方画面中央の座標(XOa、YOa、HOa)、画面の
傾き角度θxa、θya、θha、焦点距離La、他方画面中
央の座標(XOb、YOb、HOb)、画面の傾き角度θxb、
θyb、θhb、焦点距離Lb、計14個である。各画像の
3点を写し出す画面上の3点(Vmp、Zmp)m=1、
2、3、p=a又はb、の同一座標系に於ける座標(Xm
p'、Ymp'、Hmp') 、視点の同一座標系に於ける座標
(Xsp、Ysp、Hsp)は、これら各七つの変数の関数
(Fxmp、Fymp、Fhmp)m=1、2、3、a又はb、及び
(Fxsp、Fysp、Fhsp)p=a又はb、として表される。
If two images sharing the three pixels whose coordinates of the photographing target point are known and the two points that are determined only to capture the same target point are used, the two screens and the viewpoint are the same. Can be placed in a coordinate system. The number of variables in the two screens and the position setting is 7
, One screen center coordinates (XOa, YOa, HOa), screen tilt angles θxa, θya, θha, focal length La, and the other screen center coordinates (XOb, YOb, HOb), screen tilt angle θxb,
θyb, θhb, focal length Lb, 14 in total. Three points (Vmp, Zmp) m = 1 on the screen for displaying three points of each image,
2, 3, p = a or b in the same coordinate system (Xm
p ′, Ymp ′, Hmp ′) and coordinates (Xsp, Ysp, Hsp) of the viewpoint in the same coordinate system are functions (Fxmp, Fymp, Fhmp) of these seven variables, m = 1, 2, 3, a or b, and (Fxsp, Fysp, Fhsp) p = a or b.

【0081】一方、変数を求めるための条件式は007
1項から0073項と同様、各6式、計12式ある。更
に、2枚の画面中の同一撮影対象点を写した別の2組の
画素は、2視点(Fxsp、Fysp、Fhsp)a又はbと同一
平面にあるため、下記の4連立方程式が2組成り立つ。
On the other hand, the conditional expression for obtaining the variable is 007
As with items 1 to 0073, there are 6 expressions each, for a total of 12 expressions. Further, another two sets of pixels that capture the same shooting target point in the two screens are on the same plane as the two viewpoints (Fxsp, Fysp, Fhsp) a or b. Holds.

【0082】[0082]

【数2】 (Equation 2)

【0083】上記4元4連立一次方程式を解くと、d1、
d2、d3、d4を取り除いた14変数のみで構成される新た
な条件式が2式生成される。従って、撮影対象点の座標
が判明している画素3点と対応関係のみ判明している2
点を共有する2枚の画像を用いれば、14変数に対して
計12+2=14の条件式が得られる。同一の5座標を
撮影した画像を元にしているため、解は存在する。(画
素が有限個であることに起因する誤差に基づいて、近似
解しか求まらない可能性は残る。)
Solving the above-mentioned quaternary four simultaneous linear equations gives d1,
Two new conditional expressions composed of only 14 variables excluding d2, d3, and d4 are generated. Therefore, only the correspondence between the three pixels at which the coordinates of the shooting target point are known and the correspondence is known.
If two images sharing points are used, a total of 12 + 2 = 14 conditional expressions can be obtained for 14 variables. The solution exists because it is based on images obtained by capturing the same five coordinates. (There is a possibility that only an approximate solution is obtained based on an error caused by a finite number of pixels.)

【0084】同一撮影対象を撮影した2枚の画面におい
て、8点の画素の対応関係が定まっていれば、座標が不
明でも2枚の画面を同一座標系に配置できる。2枚の画
像に於いて、両方の画面の大きさ、片方の画面の位置を
所与とすれば、変数はその画面の焦点距離La、他方の
画面の画面中央の座標(XOb、YOb、HOb)、画面の傾
き角度θxb、θyb、θhb、焦点距離Lbの8個である。
各画像の3点を写し出す画面上の3点(Vmp、Zmp) m
=1〜8、p=a又はbの、同一座標系に於ける座標(Xm
p'、Ymp'、Hmp')、視点の同一座標系に於ける座標
(Xsp、Ysp、Hsp)は、これら各8個の変数の関数
(Fxmp、Fymp、Fhmp)m=1〜8、p=a又はb、及び
(Fxsp、Fysp、Fhsp)p=a又はb、として表される。
各対応する画素の組2点は、それぞれ2視点と同一平面
上に位置する。従って、8点m=1〜8において、以下
の連立式が成り立つ。
As long as the correspondence between the eight pixels is determined on two screens obtained by shooting the same object, the two screens can be arranged in the same coordinate system even if the coordinates are unknown. Given the size of both screens and the position of one of the screens in the two images, the variables are the focal length La of that screen and the coordinates of the center of the other screen (XOb, YOb, HOb). ), The screen tilt angles θxb, θyb, θhb, and focal length Lb.
Three points (Vmp, Zmp) on the screen that show three points of each image m
= 1 to 8, p = a or b in the same coordinate system (Xm
p ′, Ymp ′, Hmp ′) and the coordinates (Xsp, Ysp, Hsp) of the viewpoint in the same coordinate system are functions (Fxmp, Fymp, Fhmp) of these eight variables, m = 1 to 8, p = A or b, and (Fxsp, Fysp, Fhsp) p = a or b.
The two corresponding pixel pairs are located on the same plane as the two viewpoints. Therefore, the following simultaneous equations hold at eight points m = 1 to 8.

【0085】[0085]

【数3】 (Equation 3)

【0086】0080項から0083項と同様、この4
連立方程式は、一つの、関数Fxma、Fyma、Fhma、Fx
mb、Fymb、Fhmb、Fxsa、Fysa、Fhsa、Fxsb、Fys
b、Fhsbの関係式(条件式)にまとめられる。このよう
な条件式が8式得られ、この8連立方程式を解いて先の
8個の変数の解が求まる。この8変数が求まる結果、画
面の配置、即ち2画面、2視点の相対的な位置関係を定
めることができる。同一カメラ、同一焦点距離で撮影し
たカメラであれば、La=Lbとなり変数は7個になるた
め、画面上の7組の対応する画素を特定すればよい。両
方のカメラの焦点距離が既知であれば、6組の対応する
画素の組を特定する。
As in the items 0080 to 0083, this 4
The simultaneous equations are one function Fxma, Fyma, Fhma, Fx
mb, Fymb, Fhmb, Fxsa, Fysa, Fhsa, Fxsb, Fys
The relational expressions (conditional expressions) of b and Fhsb are summarized. Eight such conditional expressions are obtained, and the solution of the above eight variables is obtained by solving the eight simultaneous equations. As a result of obtaining these eight variables, it is possible to determine the arrangement of screens, that is, the relative positional relationship between two screens and two viewpoints. In the case of the same camera and a camera photographed with the same focal length, La = Lb and seven variables, so seven corresponding pixels on the screen may be specified. If the focal lengths of both cameras are known, six corresponding sets of pixels are identified.

【0087】座標が判明している3点を写した3枚の画
像を用いる場合は、3枚の画像に共通して対応すると判
断できる別の1組の画素を設定すれば、計4個の画素で
全画面、視点の位置を同一座標系で定められる。画像の
枚数、撮影対象の座標が既知か未知か、焦点距離が既知
か否か、同一カメラを用いているかなどの諸条件によっ
て、同一座標系における画面と視点の位置を求める変数
の数は異なってくる。いずれの条件でも、求めるべき変
数の数と同一数の独立した条件式を与えれば変数の解は
求まる。
When three images of three points whose coordinates are known are used, another set of pixels which can be determined to correspond to the three images in common is set, and a total of four pixels are set. The position of the entire screen and the viewpoint is determined by the same coordinate system using pixels. The number of variables that determine the position of the screen and viewpoint in the same coordinate system differs depending on various conditions, such as the number of images, whether the coordinates of the shooting target are known or unknown, whether the focal length is known, and whether the same camera is used. Come. Under any condition, a variable solution can be obtained by giving the same number of independent conditional expressions as the number of variables to be obtained.

【0088】以下、画像の枚数、撮影対象の座標が既知
か未知か、焦点距離が既知か否か、同一カメラを用いて
いるかなどの諸条件毎に必要な、対応する画素の組数の
例を示す。 撮影対象の座標が未知で、焦点距離が画像毎異なる
可能性がある場合使用する画像が2枚のとき、対応する
画素の必要組数は7組使用する画像が3または4枚のと
き、対応する画素の必要組数は5組使用する画像が5枚
以上のとき、対応する画素の必要組数は4組 撮影対象の座標が未知で、焦点距離が全ての画像で
同一な場合使用する画像が2枚のとき、対応する画素の
必要組数は6組使用する画像が3枚以上のとき、対応す
る画素の必要組数は4組 撮影対象の座標が既知な場合対応する画素の必要組
数は4組。但し、焦点距離が既知であれば3組。
The following is an example of the number of corresponding pixel sets required for each condition such as the number of images, whether the coordinates of the object to be photographed are known or unknown, whether the focal length is known, and whether the same camera is used. Is shown. When the coordinates of the object to be photographed are unknown and the focal length may be different for each image. When two images are used, the required number of sets of corresponding pixels is seven. When three or four images are used, it is supported. The required number of pairs of pixels to be used is five. When the number of images to be used is five or more, the required number of pairs of pixels is four. The image to be used when the coordinates of the shooting target are unknown and the focal length is the same for all images. When there are two images, the required number of corresponding pixels is six. When three or more images are used, the required number of corresponding pixels is four. When the coordinates of the imaging target are known, the required number of corresponding pixels The number is four sets. However, if the focal length is known, three sets.

【0089】この条件を満たす画素の組を対応させ、比
較的精度の高い初期設定を与え、近似解の精度を次第に
高めていく計算プロセスを与えれば、画素密度と同レベ
ルの精度の高い近似解を得ることができる。カメラ自体
の精度的な課題、即ちレンズと受像面の設置角度のズ
レ、像の歪みといった課題についても、予め工業試験に
於いて定められた地点から座標の判明している5以上の
複数点を撮影して、補正パラメーターを得ておくことが
できる。8個より多くの画素を対応させる、あるいは建
物の角など境界線の交差する箇所であれば、その境界線
を構成する画素から最小二乗法によって得た直線の交点
として座標を求めるなどの方法により、誤差を小さくす
ることも可能である。これによって、複数の画面を同一
座標系に置き、0042項以降に示したような画素単位
での対応関係を定めて立体データを作成するために必要
な画面の位置設定が可能となる。尚、複数の画素の組が
2視点と同一平面上に位置しないよう、各2撮影対象点
を結ぶ線が各撮影した地点を結ぶ線と並行しないと思わ
れる画素を選択する。
By providing a set of pixels satisfying this condition, giving a relatively accurate initial setting, and providing a calculation process for gradually increasing the accuracy of the approximate solution, an approximate solution having the same level of accuracy as the pixel density can be obtained. Can be obtained. Regarding the accuracy issues of the camera itself, that is, the issues such as the misalignment of the installation angle of the lens and the image receiving surface, and the distortion of the image, five or more points whose coordinates are known from the points determined in advance in the industrial test are used. You can shoot and get the correction parameters. If more than eight pixels correspond to each other, or if a boundary line intersects a corner of a building, for example, a coordinate is obtained as an intersection of a straight line obtained by the least square method from the pixels constituting the boundary line. , It is also possible to reduce the error. This makes it possible to set a plurality of screens in the same coordinate system and to set the positions of the screens necessary for creating three-dimensional data by defining correspondences in pixel units as shown in the section 0042 and thereafter. In addition, pixels in which the line connecting the two shooting target points is considered not to be parallel to the line connecting the shooting points are selected so that the set of a plurality of pixels is not located on the same plane as the two viewpoints.

【0090】尚、A、B両画面において、対応する画素
の組を求め、その座標の相対的な位置関係から8変数を
求めるのであるが、8連立方程式は全て、対応する画素
が同一平面Y=αm*X(m=1〜8)上にあることを規定し
ているだけで、視点SaとSbの距離を規定するものでは
ないため、解は一つに定まらない。この結果、視点S
a、Sbを通る直線をZ軸とする同一座標系において、8
元連立方程式の一組の解に対して、画面中央点(Xa0、Y
a0、ZaO)(Xb0、Yb0、Zb0)と両視点をそれぞれZ軸方向
に平行移動しても解となる。この異なる解の組み合わせ
に基づき作成される立体データは、立体データの相対的
な大きさが異なるだけで、立体データの形状は相似して
いる。
In each of the A and B screens, a set of corresponding pixels is obtained, and eight variables are obtained from the relative positional relationship of the coordinates. In all eight simultaneous equations, the corresponding pixels have the same plane Y = Αm * X (m = 1 to 8), but does not define the distance between the viewpoints Sa and Sb, so that a single solution is not determined. As a result, the viewpoint S
In the same coordinate system where the straight line passing through a and Sb is the Z axis, 8
The screen center point (Xa0, Y
a0, ZaO) (Xb0, Yb0, Zb0) and both viewpoints can also be solved by moving them in parallel in the Z-axis direction. The three-dimensional data created based on the combination of the different solutions is similar in the shape of the three-dimensional data, except for the relative size of the three-dimensional data.

【0091】従って、立体データを作成するに際して
は、視点Sa、Sbの距離は任意でよい。他の立体データ
と合成するなどの際に、立体データ上の距離が既知の任
意の2点において、2点の座標から求められる距離と希
望の縮尺に基づく距離の比率と同じ割合で、視点Sa、
Sbの距離(Z座標の差異)を縮小又は拡大し、画面の
Z座標を修正し、立体データの大きさを確定させればよ
い。
Therefore, when creating stereoscopic data, the distance between the viewpoints Sa and Sb may be arbitrary. When combining with other three-dimensional data, for example, at any two points whose distances on the three-dimensional data are known, the viewpoint Sa is set at the same ratio as the ratio of the distance obtained from the coordinates of the two points and the distance based on the desired scale. ,
The distance of Sb (difference in Z coordinate) may be reduced or enlarged, the Z coordinate on the screen may be corrected, and the size of the three-dimensional data may be determined.

【0092】一方の画面Aの大きさと位置、及び他方画
面Bの大きさを所与とする。画面Aの焦点距離を変数La
の値を与えると、視点Saが定まる。ここで、画面Aの視
点Saの座標を(0、0、0)、画面Aの中心点の座標を(L
a、0、0)、画面上の縦横の座標軸がY軸、Z軸に平行
になるように置くと、画面A上の各点の座標が定まる。
(La、Yan、Zan)n=1〜8。
Assume that the size and position of one screen A and the size of the other screen B are given. Set the focal length of screen A to the variable La
Is given, the viewpoint Sa is determined. Here, the coordinates of the viewpoint Sa of the screen A are (0, 0, 0), and the coordinates of the center point of the screen A are (L
a, 0, 0), if the vertical and horizontal coordinate axes on the screen are placed parallel to the Y axis and the Z axis, the coordinates of each point on the screen A are determined.
(La, Yan, Zan) n = 1-8.

【0093】2視点間の距離を任意の定数LABとし、視
点SbのX座標として変数Xsb、Y座標として変数Ysbの値
をそれぞれ与えると、A、B両画面と撮影対象の相対的
な位置関係(左右の位置関係)が既知ため、視点SbのZ
座標Zsbも求まる。 Zsb=√(LAB**2−Xsb**2−Ysb**2) 画面Bの焦点距離として変数Lb、画面Bの中心点の座標
として変数Xb0、Yb0の値を与えると、撮影対象とA、B両
画面の相対的な位置関係がわかっているため、座標Zb0
が求まる。 Zb0=Zsb−√[Lb**2−(Xb0−Xsb)**2−(Yb0−Ysb)**2)] 画面の傾き角度θb0を与えると、他方画面Bの大きさが
所与であり、視点と画面中心点を結ぶ線に対し画面が垂
直であるため、A、B両画面の画素全ての座標が同一の
座標系において定まる。即ち、変数La、Xsb、Ysb、Lb、
Xb0、Yb0、θb0の計7個によって、A、B両画面の全座
標を表すことができる。
When the distance between the two viewpoints is an arbitrary constant LAB, and the values of the variable Xsb and the variable Ysb are respectively given as the X coordinate and the Y coordinate of the viewpoint Sb, the relative positional relationship between both the A and B screens and the object to be shot is obtained. (The positional relationship between the left and right) is known, so the Z of the viewpoint Sb is
The coordinates Zsb are also obtained. Zsb = √ (LAB ** 2-Xsb ** 2-Ysb ** 2) Given the variable Lb as the focal length of the screen B and the values of the variables Xb0 and Yb0 as the coordinates of the center point of the screen B, , B, since the relative positional relationship between the two screens is known, the coordinates Zb0
Is found. Zb0 = Zsb-√ [Lb ** 2- (Xb0-Xsb) ** 2- (Yb0-Ysb) ** 2)] When the screen tilt angle θb0 is given, the size of the other screen B is given. Since the screen is perpendicular to the line connecting the viewpoint and the center point of the screen, the coordinates of all pixels on both the A and B screens are determined in the same coordinate system. That is, the variables La, Xsb, Ysb, Lb,
The total coordinates of both the A and B screens can be represented by a total of seven, Xb0, Yb0, and θb0.

【0094】A、B両画面の対応する画素と視点の座標を
7つの変数の関数、即ち画面Aの画素Panの座標(Fxan、
Fyan、Fzan)、画面Bの画素Pbnの座標(Fxbn、Fybn、Fz
bn)、画面Aの視点Saの座標(0、0、0)、画面Bの視点S
bの座標(Xsb、Ysb、Fzsb)、Fzsb=Zsbと表す。
The coordinates of the corresponding pixel and viewpoint of both screens A and B are determined by a function of seven variables, that is, the coordinates (Fxan, Fxan,
Fyan, Fzan), coordinates of the pixel Pbn of the screen B (Fxbn, Fybn, Fz
bn), coordinates of viewpoint Sa of screen A (0, 0, 0), viewpoint S of screen B
The coordinates of b (Xsb, Ysb, Fzsb), Fzsb = Zsb.

【0095】A、B両画面の対応する画素と視点Sa、Sbを
結んだ線の延長線は撮影対象点で交差するため、以下の
式が成り立つ。 γFxan=Xsb+ε*(Fxbn−Xsb) γFyan=Ysb +ε*(Fybn−Ysb) γFzan=Fzsb +ε*(Fzbn−Fzsb) γ、εは未知の定
数 上記三式からγ、εを消去すると、以下のような7変数
の関係式が得られる。 Fxbn*(Ysb*Fzan−Fzsb*Fyan)+Fybn*(Fzsb*Fxan−Xsb*F
zan)+Fzbn*(Xsb*Fyan−Ysb*Fxan)=0 視点Saを原点(0,0,0)に置き、画面Aの中心点を(L
a、0、0)に置くと、Fxan=La、Fyan=yan、Fzan=zanと置
ける。但し、Laは画面Aの焦点距離、yan、zanは、画素
nの画面A上での、それぞれ縦軸、横軸の座標。
Since the extended lines of the lines connecting the corresponding pixels on both the A and B screens and the viewpoints Sa and Sb intersect at the photographing target point, the following equation is established. γFxan = Xsb + ε * (Fxbn−Xsb) γFyan = Ysb + ε * (Fybn−Ysb) γFzan = Fzsb + ε * (Fzbn−Fzsb) where γ and ε are unknown constants. Thus, a relational expression of seven variables is obtained. Fxbn * (Ysb * Fzan−Fzsb * Fyan) + Fybn * (Fzsb * Fxan−Xsb * F
zan) + Fzbn * (Xsb * Fyan−Ysb * Fxan) = 0 Place the viewpoint Sa at the origin (0,0,0) and set the center point of the screen A to (L
a, 0, 0), you can put Fxan = La, Fyan = yan, Fzan = zan. Here, La is the focal length of the screen A, and yan and zan are the coordinates of the vertical axis and the horizontal axis of the pixel n on the screen A, respectively.

【0096】上記式の両辺をFzsbで割ると、 La*(Fybn-Fzbn*Ysb/Fzsb)+yan*(Fzbn*Xsb/Fzsb-Fxbn)+zan*(Fxbn*Ysb-Fybn*Xsb) =0 La*[(Fybn-Ysb)-(Fzbn-Fzsb)*Ysb/Fzsb)]+yan*[(Fzbn-Fzsb)*Xsb/Fzsb-(Fxbn-Xs b)]+zan*[(Fxbn-Xsb)*Ysb-(Fybn-Ysb)*Xsb)]=0 ・・・ 上記式は、変数La、Ysb/Fzsb、Xsb/Fzsb、(Xsb-Xb0)、
(Ysb-Yb0)、(Fzsb-Zb0)、φ、計7変数の関係式であ
り、7組のyan、zan(n=1〜7)に対して独立である。但
し、(Xb0、Yb0、ZbO)を画面Bの中央点、φを画面Bの
傾きとする。この7変数を求め、Fzsbを任意に定めれ
ば、La、Ysb、Xsb、Xb0、Yb0、Zb0、φの7変数が求ま
る。
When both sides of the above equation are divided by Fzsb, La * (Fybn-Fzbn * Ysb / Fzsb) + yan * (Fzbn * Xsb / Fzsb-Fxbn) + zan * (Fxbn * Ysb-Fybn * Xsb) = 0 La * [(Fybn-Ysb)-(Fzbn-Fzsb) * Ysb / Fzsb)] + yan * [(Fzbn-Fzsb) * Xsb / Fzsb- (Fxbn-Xs b)] + zan * [(Fxbn-Xsb) * Ysb- (Fybn-Ysb) * Xsb)] = 0 The above formulas are variables La, Ysb / Fzsb, Xsb / Fzsb, (Xsb-Xb0),
(Ysb-Yb0), (Fzsb-Zb0), φ, a relational expression of a total of seven variables, independent of seven sets of yan and zan (n = 1 to 7). Here, (Xb0, Yb0, ZbO) is the center point of the screen B, and φ is the inclination of the screen B. If these seven variables are obtained and Fzsb is arbitrarily determined, seven variables La, Ysb, Xsb, Xb0, Yb0, Zb0, and φ are obtained.

【0097】0084項から0086項で、対応する2
画素と視点Sa、視点Sbの4点が同一平面上に位置するこ
とを反映した4元連立方程式においてもFxsa=Fysa=F
hsa=0、即ち視点Saを原点に置けば、d4=0となり、残る
3連立方程式からは、上記関係式と同様の式が導かれ
る。従って、先のA、B両画面の対応する画素と視点Sa、
Sbを結んだ線の延長線は撮影対象点で交差するという条
件は、対応する2画素と視点Sa、視点Sbの4点が同一平
面上に位置することと同義であることが確認される。
In items 0084 to 1986, the corresponding 2
Fxsa = Fysa = F also in the quaternary simultaneous equation reflecting that the pixel, the viewpoint Sa, and the viewpoint Sb are located on the same plane.
If hsa = 0, that is, if the viewpoint Sa is placed at the origin, d4 = 0, and the same equations as the above relational equations are derived from the remaining three simultaneous equations. Therefore, the corresponding pixels and the viewpoints Sa,
It is confirmed that the condition that the extension line of the line connecting Sb intersects at the imaging target point is equivalent to that the corresponding two pixels and the four points of the viewpoint Sa and the viewpoint Sb are located on the same plane.

【0098】加えて、A、B両画面の対応する画素と視点
Sa、Sbを結んだ線の延長線は撮影対象点で交差するとい
う条件はA、B両画面において対応する画素を特定させる
必要があるが、対応する2画素と視点Sa、視点Sbの4点
が同一平面上に位置するという条件においては、必ずし
も予め画素を特定する必要が無く、0143項から01
44項に示すように、同一部位の画像のα値の最大値及
び最小値、あるいは凸部などの極大値、極小値のα値が
A、B両画面において一致するという条件に置き換えるこ
とも可能とする。
In addition, the corresponding pixels and viewpoints of both A and B screens
The condition that the extension line of the line connecting Sa and Sb intersects at the shooting target point needs to specify the corresponding pixel on both the A and B screens, but the corresponding two pixels and the viewpoint Sa and the viewpoint Sb are four points. Are located on the same plane, it is not always necessary to specify a pixel in advance.
As shown in the paragraph 44, the maximum value and the minimum value of the α value of the image of the same part, or the maximum value and the minimum value
It is also possible to replace it with the condition that they match on both the A and B screens.

【0099】また、対応する画素の候補を同一α値線上
の画素に絞り込んだり、3以上の画像を用いた場合に、
同一平面上に位置することを条件として、任意の2枚を
用いた画素の対応付けの良否を他の画像を用いて確認す
ることも可能とする。従って、対応する2画素と視点S
a、視点Sbの4点が同一平面上に位置するという条件
は、A、B両画面の対応する画素と視点Sa、Sbを結んだ線
の延長線は撮影対象点で交差するという条件を包含す
る、より有用性の高い条件であると言える。
Further, when the corresponding pixel candidates are narrowed down to pixels on the same α-value line, or when three or more images are used,
On the condition that they are located on the same plane, it is also possible to confirm the quality of the correspondence between the pixels using any two pixels using another image. Therefore, the corresponding two pixels and the viewpoint S
a, the condition that the four points of the viewpoint Sb are located on the same plane includes the condition that the extension line of the line connecting the corresponding pixel of both the A and B screens and the viewpoint Sa, Sb intersects at the photographing target point. It can be said that the condition is more useful.

【0100】尚、zanが全て同じ値となる7画素を指定
するなど、7変数が独立しない可能性が生じるような画
素の選択は避けることが望ましい。上記式は、各対応す
る画素の組毎に独立した式であるため、同一α値線上に
位置しない異なる7組の対応する画素の組毎に上記式を
得て、それらの連立方程式を解けば、7変数の解が求ま
る。実際には、0147項のから0148項ように各変
数に微少変動量を与え、より正確な近似解を求めてい
く。あるいは上記式の値を算出し、各式の値が0に近づ
くようにして、より正確な近似解を求めていく。
Note that it is desirable to avoid selection of pixels that may cause the independence of the seven variables, such as designating seven pixels for which zan has the same value. Since the above equation is an independent equation for each corresponding pixel set, the above equation is obtained for each of seven different sets of corresponding pixels that are not located on the same α-value line, and solving these simultaneous equations , 7 variables are obtained. In practice, a small amount of variation is given to each variable as in the 0147 to 0148 terms, and a more accurate approximate solution is obtained. Alternatively, the values of the above formulas are calculated, and a more accurate approximate solution is obtained so that the value of each formula approaches 0.

【0101】実際に撮影した2焦点間の距離と2視点間
の距離の任意の定数LABとは異なっているのであるが、
定数LABを任意に定めても、求められる撮影対象の形状
は相似しているため、問題は生じない。視点Sa、Sbを結
ぶ直線を新たなZ軸とするよう座標変換して、A、B両画
面で対応する画素のα値が一致するよう条件を与えれ
ば、対応する画素毎に独立した7変数の関係式が得られ
る。独立した7変数の関係を示す式を7つ与えれば、7
変数の解が求まる。従って、A、B両画面で対応する7
個の画素を用いて0084項から0086項と同様にし
て、A、B両画面の相対的な位置関係を求められる。
Although the constant LAB of the distance between the two focal points actually photographed and the distance between the two viewpoints is different,
Even if the constant LAB is arbitrarily determined, no problem occurs because the shapes of the imaging targets to be obtained are similar. If coordinates are converted so that a straight line connecting the viewpoints Sa and Sb is set as a new Z axis, and a condition is provided so that the α values of the corresponding pixels on both the A and B screens match, seven independent variables for each corresponding pixel Is obtained. If we give seven equations that show the relationship of seven independent variables, we get
Find the solution of the variable. Therefore, the corresponding 7 in both A and B screens
The relative positional relationship between the A and B screens can be obtained in the same manner as in the items 0084 to 008 using the pixels.

【0102】同様に、同じカメラを同じ焦点距離で用い
れば、La=Lbとなり、6個の画素を用いて同様にして、
A、B両画面の相対的な位置関係を求められる。2画面
の焦点距離が既知であれば、5個の画素を用いてA、B
両画面の相対的な位置関係を求められる。生成された立
体データが撮影対象の希望の縮尺になるよう、画面及び
視点の位置を平行移動させ、立体データの任意の2点間
の距離と撮影対象の該当する2点間の距離の比率でLAB
を変える。A、B両画面において、対応する7個の画素
を特定できないときは、7個の内幾つかについて、2視
点Sa、Sb両方から見えている部位のα値の最大値ないし
最小値の画素が一致するようにしてもよい。
Similarly, if the same camera is used at the same focal length, then La = Lb, and similarly using six pixels,
The relative positional relationship between the A and B screens is obtained. If the focal length of the two screens is known, A, B using five pixels
The relative positional relationship between the two screens can be obtained. The position of the screen and the viewpoint is translated in parallel so that the generated stereoscopic data has the desired scale of the imaging target, and the distance between any two points of the stereoscopic data and the distance between the corresponding two points of the imaging target is calculated. LAB
change. When the corresponding seven pixels cannot be specified in both the A and B screens, the pixels having the maximum value or the minimum value of the α value of the part viewed from both the two viewpoints Sa and Sb are determined for some of the seven pixels. You may make it correspond.

【0103】ここで、上述した処理について数式を用い
て詳細に説明する。 γFxan=Xsb+ε*(Fxbn−Xsb) γFyan=Ysb +ε*(Fybn−Ysb) γFzan=Fzsb +ε*(Fzbn−Fzsb) γ、εは未知の定
Here, the above-mentioned processing will be described in detail using mathematical expressions. γFxan = Xsb + ε * (Fxbn−Xsb) γFyan = Ysb + ε * (Fybn−Ysb) γFzan = Fzsb + ε * (Fzbn−Fzsb) γ and ε are unknown constants

【0104】Fxan * [Ysb +ε*(Fybn−Ysb)] = Fy
an * [Xsb+ε*(Fxbn−Xsb)] Fxan * [Fzsb +ε*(Fzbn−Fzsb)]= Fzan * [Xsb+
ε*(Fxbn−Xsb)]
Fxan * [Ysb + ε * (Fybn−Ysb)] = Fy
an * [Xsb + ε * (Fxbn−Xsb)] Fxan * [Fzsb + ε * (Fzbn−Fzsb)] = Fzan * [Xsb +
ε * (Fxbn-Xsb)]

【0105】[Fxan*Ysb - Fyan*Xsb] = ε*[ Fyan *(F
xbnXsb)- Fxan*(Fybn−Ysb)] [Fxan*Fzsb -Fzan*Xsb] = ε*[ Fzan *(Fxbn−Xsb)-
Fxan*(Fzbn−Fzsb)]
[Fxan * Ysb-Fyan * Xsb] = ε * [Fyan * (F
xbnXsb)-Fxan * (Fybn-Ysb)] [Fxan * Fzsb -Fzan * Xsb] = ε * [Fzan * (Fxbn-Xsb)-
Fxan * (Fzbn-Fzsb)]

【0106】[Fxan * Ysb - Fyan * Xsb]*[ Fzan *(Fx
bn−Xsb)- Fxan * (Fzbn−Fzsb)]=[Fxan *Fzsb - Fza
n * Xsb]*[ Fyan *(Fxbn−Xsb)- Fxan *(Fybn−Ys
b)]
[Fxan * Ysb-Fyan * Xsb] * [Fzan * (Fx
bn−Xsb) −Fxan * (Fzbn−Fzsb)] = [Fxan * Fzsb−Fza
n * Xsb] * [Fyan * (Fxbn−Xsb) −Fxan * (Fybn−Ys
b)]

【0107】(Fxbn−Xsb)*[ Fzan *(Fxan * Ysb - Fy
an * Xsb) - Fyan *(Fxan *Fzsb -Fzan * Xsb)] - Fxan
* (Fzbn−Fzsb)* [Fxan * Ysb - Fyan * Xsb]+ Fxan
*(Fybn−Ysb) * [Fxan *Fzsb - Fzan * Xsb] = 0
(Fxbn-Xsb) * [Fzan * (Fxan * Ysb-Fy
an * Xsb)-Fyan * (Fxan * Fzsb -Fzan * Xsb)]-Fxan
* (Fzbn−Fzsb) * [Fxan * Ysb-Fyan * Xsb] + Fxan
* (Fybn−Ysb) * [Fxan * Fzsb-Fzan * Xsb] = 0

【0108】(Fxbn−Xsb)*[Fzan*Fxan*Ysb-Fzan*Fyan*
Xsb-Fyan*Fxan*Fzsb+Fyan*Fzan*Xsb]+Fxan*[(Fybn-Ysb)
*(Fxan*Fzsb-Fzan*Xsb)+(Fzbn-Fzsb)*(Fyan*Xsb-Fxan*Y
sb)]=0
(Fxbn-Xsb) * [Fzan * Fxan * Ysb-Fzan * Fyan *
Xsb-Fyan * Fxan * Fzsb + Fyan * Fzan * Xsb] + Fxan * [(Fybn-Ysb)
* (Fxan * Fzsb-Fzan * Xsb) + (Fzbn-Fzsb) * (Fyan * Xsb-Fxan * Y
sb)] = 0

【0109】(Fxbn−Xsb)*[Fzan*Fxan*Ysb-Fyan*Fxan*
Fzsb]+Fxan*[(Fybn-Ysb)*(Fxan*Fzsb-Fzan*Xsb)+(Fzbn-
Fzsb)*(Fyan*Xsb-Fxan*Ysb)]=0
(Fxbn-Xsb) * [Fzan * Fxan * Ysb-Fyan * Fxan *
Fzsb] + Fxan * [(Fybn-Ysb) * (Fxan * Fzsb-Fzan * Xsb) + (Fzbn-
Fzsb) * (Fyan * Xsb-Fxan * Ysb)] = 0

【0110】Fxan*(Fxbn−Xsb)*(Fzan*Ysb-Fyan*Fzsb)
+Fxan*[(Fybn−Ysb)*(Fxan*Fzsb -Fzan*Xsb)+(Fzbn−F
zsb)*(Fyan*Xsb-Fxan*Ysb)]=0 Fxan ≠0。
Fxan * (Fxbn-Xsb) * (Fzan * Ysb-Fyan * Fzsb)
+ Fxan * [(Fybn−Ysb) * (Fxan * Fzsb -Fzan * Xsb) + (Fzbn−F
zsb) * (Fyan * Xsb-Fxan * Ysb)] = 0 Fxan ≠ 0.

【0111】よって、 (Fxbn−Xsb)*(Ysb*Fzan−Fzsb*Fyan)+(Fybn−Ysb)*(F
zsb*Fxan−Xsb*Fzan)+(Fzbn−Fzsb)*(Xsb*Fyan−Ysb*F
xan)=0
Therefore, (Fxbn−Xsb) * (Ysb * Fzan−Fzsb * Fyan) + (Fybn−Ysb) * (F
zsb * Fxan−Xsb * Fzan) + (Fzbn−Fzsb) * (Xsb * Fyan−Ysb * F
xan) = 0

【0112】−Xsb*(Ysb*Fzan−Fzsb*Fyan)−Ysb*(Fzsb
*Fxan−Xsb*Fzan)−Fzsb*(Xsb*Fyan−Ysb*Fxan)=0
-Xsb * (Ysb * Fzan-Fzsb * Fyan) -Ysb * (Fzsb
* Fxan−Xsb * Fzan) −Fzsb * (Xsb * Fyan−Ysb * Fxan) = 0

【0113】よって、 Fxbn*(Ysb*Fzan−Fzsb*Fyan)+Fybn*(Fzsb*Fxan−Xsb*F
zan)+Fzbn*(Xsb*Fyan−Ysb*Fxan)=0
Therefore, Fxbn * (Ysb * Fzan−Fzsb * Fyan) + Fybn * (Fzsb * Fxan−Xsb * F
zan) + Fzbn * (Xsb * Fyan−Ysb * Fxan) = 0

【0114】Fxan*( Fybn*Fzsb - Fzbn*Ysb)+ Fyan*( F
zbn*Xsb - Fxbn*Fzsb )+ Fzan*( Fxbn*Ysb- Fybn*Xsb )
=0
Fxan * (Fybn * Fzsb-Fzbn * Ysb) + Fyan * (F
zbn * Xsb-Fxbn * Fzsb) + Fzan * (Fxbn * Ysb- Fybn * Xsb)
= 0

【0115】Fxan = Fxa1 = La (n =2,3,・・・) 、Fya
n = yan、 Fzan = zan (画面Aの位置は所与であるた
め)
Fxan = Fxa1 = La (n = 2,3,...), Fya
n = yan, Fzan = zan (since the position of screen A is given)

【0116】 La*( Fybn*Fzsb - Fzbn*Ysb)+ yan*( Fzbn*Xsb - Fxbn*Fzsb )+ zan*( Fxbn*Ysb - Fybn*Xsb )=0 La*[(Fybn-Ysb)*Fzsb-(Fzbn-Fzsb)*Ysb]+yan*[(Fzbn-Fzsb)*Xsb-(Fxbn-Xsb)*Fzs b]+zan*[(Fxbn-Xsb)*Ysb-(Fybn-Ysb)*Xsb ]=0 ・・・・La * (Fybn * Fzsb-Fzbn * Ysb) + yan * (Fzbn * Xsb-Fxbn * Fzsb) + zan * (Fxbn * Ysb-Fybn * Xsb) = 0 La * [(Fybn-Ysb) * Fzsb -(Fzbn-Fzsb) * Ysb] + yan * [(Fzbn-Fzsb) * Xsb- (Fxbn-Xsb) * Fzs b] + zan * [(Fxbn-Xsb) * Ysb- (Fybn-Ysb) * Xsb] = 0 ・ ・ ・ ・

【0117】 Xsb*[yan*(Fzbn-Fzsb)-zan*(Fybn-Ysb)]+Ysb*[zan*(Fxbn-Xsb)-La*(Fzbn-Fzsb)] + Fzsb*[La*(Fybn-Ysb)-yan*(Fxbn-Xsb)]=0 (Xsb/Fzsb)*[yan*(Fzbn-Fzsb)-zan*(Fybn-Ysb)]+(Ysb/Fzsb)*[zan*(Fxbn-Xsb)-L a*(Fzbn-Fzsb)]+[La*(Fybn-Ysb)-yan*(Fxbn-Xsb)]=0 ・・・・Xsb * [yan * (Fzbn-Fzsb) -zan * (Fybn-Ysb)] + Ysb * [zan * (Fxbn-Xsb) -La * (Fzbn-Fzsb)] + Fzsb * [La * (Fybn -Ysb) -yan * (Fxbn-Xsb)] = 0 (Xsb / Fzsb) * [yan * (Fzbn-Fzsb) -zan * (Fybn-Ysb)] + (Ysb / Fzsb) * [zan * (Fxbn- Xsb) -L a * (Fzbn-Fzsb)] + [La * (Fybn-Ysb) -yan * (Fxbn-Xsb)] = 0 ・ ・ ・ ・

【0118】上記(Xsb/Fzsb)、(Ysb/Fzsb)を変数とした
2連立一次方程式を解いて、5元5連立方程式ともでき
る。
By solving two simultaneous linear equations using (Xsb / Fzsb) and (Ysb / Fzsb) as variables, a five-element five-system equation can be obtained.

【0119】式は、後段の[(Fxbn-Xsb)*Ysb-(Fybn-Ys
b)*Xsb]などの解析により、画素の組n毎に独立している
ことが確認される。平面 AX+BY+CZ=1 において、(XS、Y
S、ZS)の最接近点が(X0、Y0、Z0)となる条件を求め
る。
The equation is expressed as [(Fxbn-Xsb) * Ysb- (Fybn-Ys
b) * Xsb] and the like, it is confirmed that each pixel set n is independent. In the plane AX + BY + CZ = 1, (XS, Y
The condition that the point of closest approach of (S, ZS) is (X0, Y0, Z0) is obtained.

【0120】尚、当該平面は原点(0、0、0)は通ら
ないため、・・・=1でよい。また、平面 AX+BY+CZ=1
と、(XS、YS、ZS)と最接近点(X0、Y0、Z0)を結ぶ直線
は直交する。
Since the plane does not pass through the origin (0, 0, 0),... = 1. Also, the plane AX + BY + CZ = 1
And a straight line connecting (XS, YS, ZS) and the closest point (X0, Y0, Z0) is orthogonal.

【0121】平面 AX+BY+CZ=1 において、S=(X-XS)**
2 +(Y-YS)**2 +(Z-ZS)**2とおくと、Sが最小となると
ころが最接近点となり、それが(X0、Y0、Z0)に一致す
る。 S=(X-XS)**2 +(Y-YS)**2 +[(1-AX-BY)/C-ZS]**2 dS/dX = 2(X-XS) -2A[(1-AX-BY)/C-ZS]/C =0 → (X-XS)*(C**2)-A[(1-AX-BY)-ZS*C]=0 (A**2+C**2)X -XS*(C**2) +AB*Y +A C*ZS -A=0 ・・・ dS/dY = 2(Y-YS) -2B[(1-AX-BY)/C-ZS]/C =0 → (Y-YS)*(C**2)-B[(1-AX-BY)-ZS*C]=0 (B**2+C**2)Y -YS*(C**2) +AB*X +BC*ZS -B=0 ・・・
In the plane AX + BY + CZ = 1, S = (X-XS) **
If 2+ (Y-YS) ** 2+ (Z-ZS) ** 2, the point where S is minimum becomes the closest approach point, which coincides with (X0, Y0, Z0). S = (X-XS) ** 2 + (Y-YS) ** 2 + [(1-AX-BY) / C-ZS] ** 2 dS / dX = 2 (X-XS) -2A [( 1-AX-BY) / C-ZS] / C = 0 → (X-XS) * (C ** 2) -A [(1-AX-BY) -ZS * C] = 0 (A ** 2 + C ** 2) X -XS * (C ** 2) + AB * Y + AC * ZS -A = 0 ・ ・ ・ dS / dY = 2 (Y-YS) -2B [(1-AX-BY ) / C-ZS] / C = 0 → (Y-YS) * (C ** 2) -B [(1-AX-BY) -ZS * C] = 0 (B ** 2 + C ** 2 ) Y -YS * (C ** 2) + AB * X + BC * ZS -B = 0 ・ ・ ・

【0122】 *(A**2+C**2)-*AB (A**2+C**2)AB*X -XS*(C**2)AB +(AABB)*Y +AABC*ZS -AAB=0 (A**2+C**2)AB*X -YS*(C**2)*(A**2+C**2) +(A**2+C**2)*(B**2+C**2)*Y +(A* *2+C**2)BC*ZS -B(A**2+C**2)=0 XS*(C**2)AB -YS*(C**2)*(A**2+C**2) +(C**2)(A**2+B**2+C**2)*Y +BC(C**2) *ZS -B(C**2)=0 C**2≠0 → XS*AB -YS*(A**2+C**2) +(A**2+B**2+C**2)*Y +BC*ZS -B=0 XS*AB -YS*(A**2+B**2+C**2-B**2) +(A**2+B**2+C**2)*Y +BC*ZS -B=0 (A**2+B**2+C**2)*(Y-YS) +B(A*XS+B*YS+C*ZS -1)=0 (Y-YS)= -B(A*XS+B*YS+C*ZS -1)/(A**2+B**2+C**2) Y =YS -B(A*XS+B*YS+C*ZS -1)/(A**2+B**2+C**2) =Y0* (A ** 2 + C ** 2)-* AB (A ** 2 + C ** 2) AB * X -XS * (C ** 2) AB + (AABB) * Y + AABC * ZS -AAB = 0 (A ** 2 + C ** 2) AB * X -YS * (C ** 2) * (A ** 2 + C ** 2) + (A ** 2 + C * * 2) * (B ** 2 + C ** 2) * Y + (A * * 2 + C ** 2) BC * ZS -B (A ** 2 + C ** 2) = 0 XS * ( C ** 2) AB -YS * (C ** 2) * (A ** 2 + C ** 2) + (C ** 2) (A ** 2 + B ** 2 + C ** 2) * Y + BC (C ** 2) * ZS -B (C ** 2) = 0 C ** 2 ≠ 0 → XS * AB -YS * (A ** 2 + C ** 2) + (A * * 2 + B ** 2 + C ** 2) * Y + BC * ZS -B = 0 XS * AB -YS * (A ** 2 + B ** 2 + C ** 2-B ** 2) + (A ** 2 + B ** 2 + C ** 2) * Y + BC * ZS -B = 0 (A ** 2 + B ** 2 + C ** 2) * (Y-YS) + B (A * XS + B * YS + C * ZS -1) = 0 (Y-YS) = -B (A * XS + B * YS + C * ZS -1) / (A ** 2 + B * * 2 + C ** 2) Y = YS -B (A * XS + B * YS + C * ZS -1) / (A ** 2 + B ** 2 + C ** 2) = Y0

【0123】 ’ (A**2+C**2)*(X-XS) +(A**2)XS +AB*(Y-YS) +AB*YS +AC*ZS -A=0 (A**2+C**2)*(X-XS) +AB*(Y-YS) +A(A*XS +B*YS +C*ZS -1)=0 (A**2+C**2)*(X-XS) -AB*B(A*XS+B*YS+C*ZS -1)/(A**2+B**2+C**2) +A(A* XS+B*YS+C*ZS-1)=0 (A**2+C**2)*(X-XS) +(A*XS+B*YS+C*ZS -1)*A*[-(B**2)/(A**2+B**2+C**2)+1]=0 (A**2+C**2)*(X-XS)+(A*XS+B*YS+C*ZS-1)*A*[(A**2+C**2)/(A**2+B**2+C**2)]=0 (A**2+C**2)≠0 (X-XS) +(A*XS+B*YS+C*ZS -1)*A*/(A**2+B**2+C**2)=0 (X-XS) =-A(A*XS+B*YS+C*ZS -1)/(A**2+B**2+C**2) X =XS -A(A*XS+B*YS+C*ZS -1)/(A**2+B**2+C**2) =X0'(A ** 2 + C ** 2) * (X-XS) + (A ** 2) XS + AB * (Y-YS) + AB * YS + AC * ZS -A = 0 ( A ** 2 + C ** 2) * (X-XS) + AB * (Y-YS) + A (A * XS + B * YS + C * ZS -1) = 0 (A ** 2 + C ** 2) * (X-XS) -AB * B (A * XS + B * YS + C * ZS -1) / (A ** 2 + B ** 2 + C ** 2) + A (A * XS + B * YS + C * ZS-1) = 0 (A ** 2 + C ** 2) * (X-XS) + (A * XS + B * YS + C * ZS -1) * A * [-(B ** 2) / (A ** 2 + B ** 2 + C ** 2) +1] = 0 (A ** 2 + C ** 2) * (X-XS) + ( A * XS + B * YS + C * ZS-1) * A * [(A ** 2 + C ** 2) / (A ** 2 + B ** 2 + C ** 2)] = 0 ( A ** 2 + C ** 2) ≠ 0 (X-XS) + (A * XS + B * YS + C * ZS -1) * A * / (A ** 2 + B ** 2 + C * * 2) = 0 (X-XS) = -A (A * XS + B * YS + C * ZS -1) / (A ** 2 + B ** 2 + C ** 2) X = XS -A (A * XS + B * YS + C * ZS -1) / (A ** 2 + B ** 2 + C ** 2) = X0

【0124】AX+BY+CZ=1より、 CZ=1-AX-BY =1 -A[XS-A(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2)] -B[YS-B(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2)] =1 -(A*XS+B*YS) +(A*XS+B*YS+C*ZS-1)*(A**2+B**2)/(A**2+B**2+C**2) =1 -(A*XS+B*YS) +(A*XS+B*YS+C*ZS-1)*[1 -(C**2)/(A**2+B**2+C**2)] =1 +(C*ZS-1) -(A*XS+B*YS+C*ZS-1)*(C**2)/(A**2+B**2+C**2)] =C*ZS -(A*XS+B*YS+C*ZS-1)*(C**2)/(A**2+B**2+C**2) Z =ZS -C(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2) =Z0From AX + BY + CZ = 1, CZ = 1-AX-BY = 1-A [XS-A (A * XS + B * YS + C * ZS-1) / (A ** 2 + B ** 2 + C ** 2)] -B [YS-B (A * XS + B * YS + C * ZS-1) / (A ** 2 + B ** 2 + C ** 2)] = 1-(A * XS + B * YS) + (A * XS + B * YS + C * ZS-1) * (A ** 2 + B ** 2) / (A ** 2 + B ** 2 + C ** 2) = 1-(A * XS + B * YS) + (A * XS + B * YS + C * ZS-1) * [1-(C ** 2) / (A ** 2 + B ** 2 + C ** 2)] = 1 + (C * ZS-1)-(A * XS + B * YS + C * ZS-1) * (C ** 2) / (A ** 2 + B ** 2 + C ** 2)] = C * ZS-(A * XS + B * YS + C * ZS-1) * (C ** 2) / (A ** 2 + B ** 2 + C ** 2) Z = ZS -C (A * XS + B * YS + C * ZS-1) / (A ** 2 + B ** 2 + C ** 2) = Z0

【0125】即ち、 (X-XS)=-A(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2)、 → X0=XS-A(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2) (Y-YS)=-B(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2)、 → Y0=YS-B(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2) (Z-ZS)=-C(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2)、 → Z0=ZS-C(A*XS+B*YS+C*ZS-1)/(A**2+B**2+C**2)That is, (X-XS) =-A (A * XS + B * YS + C * ZS-1) / (A ** 2 + B ** 2 + C ** 2), → X0 = XS -A (A * XS + B * YS + C * ZS-1) / (A ** 2 + B ** 2 + C ** 2) (Y-YS) =-B (A * XS + B * YS + C * ZS-1) / (A ** 2 + B ** 2 + C ** 2), → Y0 = YS-B (A * XS + B * YS + C * ZS-1) / (A * * 2 + B ** 2 + C ** 2) (Z-ZS) =-C (A * XS + B * YS + C * ZS-1) / (A ** 2 + B ** 2 + C * * 2), → Z0 = ZS-C (A * XS + B * YS + C * ZS-1) / (A ** 2 + B ** 2 + C ** 2)

【0126】 (A**2+B**2+C**2)=A(A*XS+B*YS+C*ZS-1)/(XS-X0) =B(A*XS+B*YS+C*ZS-1)/(YS-Y0) =C(A*XS+B*YS+C*ZS-1)/(ZS-Z0) A/(XS-X0) =B/(YS-Y0) =C/(ZS-Z0) → C =A*(ZS-Z0)/(XS-X0)、B =A*(YS-Y0)/(XS-X0)(A ** 2 + B ** 2 + C ** 2) = A (A * XS + B * YS + C * ZS-1) / (XS-X0) = B (A * XS + B * YS + C * ZS-1) / (YS-Y0) = C (A * XS + B * YS + C * ZS-1) / (ZS-Z0) A / (XS-X0) = B / (YS -Y0) = C / (ZS-Z0) → C = A * (ZS-Z0) / (XS-X0), B = A * (YS-Y0) / (XS-X0)

【0127】(XO、YO、ZO)は平面 AX+BY+CZ=1 上にある
ため、 AX0 +A*(YS-Y0)/(XS-X0)*Y0 +A*(ZS-Z0)/(XS-X0)*Z0 =1 A*[X0 +(YS-Y0)/(XS-X0)*Y0 +(ZS-Z0)/(XS-X0)*Z0] =1 A*[(XS-X0)*X0 +(YS-Y0)*Y0 +(ZS-Z0)*Z0] =(XS-X0) A =(XS-X0)/[(XS-X0)*X0 +(YS-Y0)*Y0 +(ZS-Z0)*Z0] 同様に、B =(YS-Y0)/[(XS-X0)*X0 +(YS-Y0)*Y0 +(ZS-Z0)*Z0] C =(ZS-Z0)/[(XS-X0)*X0 +(YS-Y0)*Y0 +(ZS-Z0)*Z0]
Since (XO, YO, ZO) is on the plane AX + BY + CZ = 1, AX0 + A * (YS-Y0) / (XS-X0) * Y0 + A * (ZS-Z0) / (XS-X0) * Z0 = 1 A * [X0 + (YS-Y0) / (XS-X0) * Y0 + (ZS-Z0) / (XS-X0) * Z0] = 1 A * [(XS- X0) * X0 + (YS-Y0) * Y0 + (ZS-Z0) * Z0] = (XS-X0) A = (XS-X0) / [(XS-X0) * X0 + (YS-Y0) * Y0 + (ZS-Z0) * Z0] Similarly, B = (YS-Y0) / [(XS-X0) * X0 + (YS-Y0) * Y0 + (ZS-Z0) * Z0] C = (ZS -Z0) / [(XS-X0) * X0 + (YS-Y0) * Y0 + (ZS-Z0) * Z0]

【0128】よって、 AX+BY+CZ=1は、(XS-X0)*X+(YS-
Y0)*Y+(ZS-Z0)*Z=(XS-X0)*X0+(YS-Y0)*Y0+(ZS-Z0)*Z0と
表される。
Therefore, AX + BY + CZ = 1 is (XS-X0) * X + (YS-
Y0) * Y + (ZS-Z0) * Z = (XS-X0) * X0 + (YS-Y0) * Y0 + (ZS-Z0) * Z0.

【0129】 (平面Y=YOでの切断線) (YS-Y0)*Y = (YS-Y0)*Y0 (XS-X0)*X +(ZS-Z0)*Z = (XS-X0)*X0 +(ZS-Z0)*Z0 (ZS-Z0)*Z = (ZS-Z0)*Z0 -(XS-X0)*(X-X0) Z = Z0 -(X-X0)*(XS-X0)/(ZS-Z0)(Cutting line at plane Y = YO) (YS-Y0) * Y = (YS-Y0) * Y0 (XS-X0) * X + (ZS-Z0) * Z = (XS-X0) * X0 + (ZS-Z0) * Z0 (ZS-Z0) * Z = (ZS-Z0) * Z0-(XS-X0) * (X-X0) Z = Z0-(X-X0) * (XS-X0 ) / (ZS-Z0)

【0130】切断線 [ X、Y0、Z0-(X-X0)*(XS-X0)/(ZS
-Z0) ] (平面Y=YOで、上記切断線に直交する直線) 傾き (ZS-ZO)*X -(XS-X0)*Z 且つ(X0、Y0、Z0)を通
る。 (ZS-ZO)*X -(XS-X0)*Z = (ZS-ZO)*X0 -(XS-X0)*Z0 平面(ZS-ZO)*X -(XS-X0)*Z =(ZS-ZO)*X0 -(XS-X0)*Z0
と、 平面(XS-X0)*X +(YS-Y0)*Y +(ZS-Z0)*Z =(XS-X0)*X0 +
(YS-Y0)*Y0 +(ZS-Z0)*Z0 の交線 (ZS-ZO)*(X-X0) -(XS-X0)*(Z-Z0)=0 →(Z-Z0) =(X-X0)*
(ZS-Z0)/(XS-X0)(XS-X0)*(X-X0) +(YS-Y0)*(Y-Y0) +(ZS
-Z0)*(Z-Z0)=0 (XS-X0)*(X-X0) +(YS-Y0)*(Y-Y0) +(X-X0)*(ZS-ZO)**2/
(XS-X0)=0 -(YS-Y0)*(XS-X0)*(Y-Y0)= (X-X0)*[(XS-X0)**2 +(ZS-Z
O)**2] (Y-Y0)=-(X-X0)*[(XS-X0)**2 +(ZS-ZO)**2]/[(XS-X0)*
(YS-Y0)] Y =Y0 -(X-X0)*[(XS-X0)**2 +(ZS-ZO)**2]/[(XS-X0)*(Y
S-Y0)]
Cutting line [X, Y0, Z0- (X-X0) * (XS-X0) / (ZS
-Z0)] (Line in plane Y = YO, orthogonal to the above cutting line) Slope (ZS-ZO) * X-(XS-X0) * Z and passes through (X0, Y0, Z0). (ZS-ZO) * X-(XS-X0) * Z = (ZS-ZO) * X0-(XS-X0) * Z0 Plane (ZS-ZO) * X-(XS-X0) * Z = (ZS -ZO) * X0-(XS-X0) * Z0
And the plane (XS-X0) * X + (YS-Y0) * Y + (ZS-Z0) * Z = (XS-X0) * X0 +
Intersection line of (YS-Y0) * Y0 + (ZS-Z0) * Z0 (ZS-ZO) * (X-X0)-(XS-X0) * (Z-Z0) = 0 → (Z-Z0) = (X-X0) *
(ZS-Z0) / (XS-X0) (XS-X0) * (X-X0) + (YS-Y0) * (Y-Y0) + (ZS
-Z0) * (Z-Z0) = 0 (XS-X0) * (X-X0) + (YS-Y0) * (Y-Y0) + (X-X0) * (ZS-ZO) ** 2 /
(XS-X0) = 0-(YS-Y0) * (XS-X0) * (Y-Y0) = (X-X0) * [(XS-X0) ** 2 + (ZS-Z
O) ** 2] (Y-Y0) =-(X-X0) * [(XS-X0) ** 2 + (ZS-ZO) ** 2] / [(XS-X0) *
(YS-Y0)] Y = Y0-(X-X0) * [(XS-X0) ** 2 + (ZS-ZO) ** 2] / [(XS-X0) * (Y
S-Y0)]

【0131】画面上の座標(V、W)、画面上のY=Y0と
なる線とV軸との回転角φとして、画面中央と座標
(V、W)の距離をRと置くと、V =Rcosθ、 W =Rsinθ
と表せる。但しθは、座標と原点を結ぶ線とV軸との角
度。 V'=Rcos(θ+φ) =Rcosθcosφ-Rsinθsinφ =Vcosφ-Ws
inφ、 W'=Rsin(θ+φ) =Rsinθcosφ-Rcosθsinφ =Wcosφ+Vs
inφ (V'、W')の座標軸 (V'、0): [ X、Y0、Z0-(X-X0)*(XS-X0)/(ZS-Z0) ] (0、W'):{ X、Y0 -(X-X0)*[(XS-X0)**2 +(ZS-ZO)**2]/
[(XS-X0)*(YS-Y0)]、 Z0+(X-X0)*(ZS-Z0)/(XS-X0)}と置く。
Assuming that the distance between the center of the screen and the coordinates (V, W) is R, as the coordinates (V, W) on the screen and the rotation angle φ between the line Y = Y0 on the screen and the V axis, V = Rcosθ, W = Rsinθ
Can be expressed as Where θ is the angle between the line connecting the coordinates and the origin and the V axis. V '= Rcos (θ + φ) = Rcosθcosφ-Rsinθsinφ = Vcosφ-Ws
inφ, W '= Rsin (θ + φ) = Rsinθcosφ-Rcosθsinφ = Wcosφ + Vs
inφ (V ', W') coordinate axes (V ', 0): [X, Y0, Z0- (X-X0) * (XS-X0) / (ZS-Z0)] (0, W'): { X, Y0-(X-X0) * [(XS-X0) ** 2 + (ZS-ZO) ** 2] /
[(XS-X0) * (YS-Y0)], Z0 + (X-X0) * (ZS-Z0) / (XS-X0)}.

【0132】まず、(V'、0)と(0、W')の3次元座標
を求める。 V'**2 =(X-X0)**2+(Y0-Y0)**2+[Z0-Z0+(X-X0)*(XS-X0)/(ZS-Z0)]**2 =(X-X0)**2 *{1 +[(XS-X0)/(ZS-Z0)]**2} =(X-X0)**2 *[(ZS-Z0)**2 +(XS-X0)**2]/[(ZS-Z0)**2]
First, the three-dimensional coordinates of (V ', 0) and (0, W') are obtained. V '** 2 = (X-X0) ** 2+ (Y0-Y0) ** 2+ [Z0-Z0 + (X-X0) * (XS-X0) / (ZS-Z0)] ** 2 = (X-X0) ** 2 * {1 + [(XS-X0) / (ZS-Z0)] ** 2} = (X-X0) ** 2 * [(ZS-Z0) ** 2 + ( XS-X0) ** 2] / [(ZS-Z0) ** 2]

【0133】B画面が右側なら、撮影対象と画面の位置
関係から(ZS-Z0)>0 。(X-X0)>0なら、V'>0。 V' =(X-X0)/(ZS-Z0) *SQRT[(ZS-Z0)**2 +(XS-X0)**2] 尚、[(ZS-Z0)**2 +(XS-X0)**2]=[Lb**2-(YS-Y0)**2] (X-X0)= V'*(ZS-Z0) /SQRT[Lb**2-(YS-Y0)**2] X = X0 +V'*(ZS-Z0) /SQRT[Lb**2-(YS-Y0)**2] Z = Z0-V'*(ZS-Z0)*(XS-X0)/{(ZS-Z0)*SQRT[Lb**2-(YS-Y0)**2]} = Z0-V'*(XS-X0)/SQRT[Lb**2-(YS-Y0)**2] (V'、0)の3次元座標は、{ X0 +V'*(ZS-Z0)/SQRT[Lb**2
-(YS-Y0)**2]、Y0、Z0-V'*(XS-X0)/SQRT[Lb**2-(YS-Y0)
**2] }
If the screen B is on the right side, (ZS-Z0)> 0 from the positional relationship between the photographing object and the screen. If (X-X0)> 0, V '> 0. V '= (X-X0) / (ZS-Z0) * SQRT [(ZS-Z0) ** 2 + (XS-X0) ** 2] Note that [(ZS-Z0) ** 2 + (XS- X0) ** 2] = [Lb ** 2- (YS-Y0) ** 2] (X-X0) = V '* (ZS-Z0) / SQRT [Lb ** 2- (YS-Y0) * * 2] X = X0 + V '* (ZS-Z0) / SQRT [Lb ** 2- (YS-Y0) ** 2] Z = Z0-V' * (ZS-Z0) * (XS-X0) / {(ZS-Z0) * SQRT [Lb ** 2- (YS-Y0) ** 2]} = Z0-V '* (XS-X0) / SQRT [Lb ** 2- (YS-Y0) * * 2] The three-dimensional coordinates of (V ', 0) are {X0 + V' * (ZS-Z0) / SQRT [Lb ** 2
-(YS-Y0) ** 2], Y0, Z0-V '* (XS-X0) / SQRT [Lb ** 2- (YS-Y0)
** 2]}

【0134】 W'**2=(X-X0)**2+{YO-Y0+(X-X0)*[(XS-X0)**2+(ZS-ZO)**2]/[(XS-X0)*(YS-Y0)] }**2+[Z0+(X-X0)*(ZS-Z0)/(XS-X0)-Z0]**2 =(X-X0)**2+{(X-X0)*[(XS-X0)**2 +(ZS-ZO)**2]/[(XS-X0)*(YS-Y0)]}**2 +[(X-X0)*(ZS-Z0)/(XS-X0)]**2 =(X-X0)**2 *{1+{[(XS-X0)**2 +(ZS-ZO)**2]/[(XS-X0)*(YS-Y0)]}**2+[(Z S-Z0)/(XS-X0)]**2} ={(X-X0)**2/[(XS-X0)*(YS-Y0)]**2} *{[(XS-X0)*(YS-Y0)]**2+[(XS-X0)**2+(ZS-ZO)**2]**2+[(ZS-Z0)*(YS-Y0)]**2} ={(X-X0)**2/[(XS-X0)*(YS-Y0)]**2} *[(XS-X0)**2 +(ZS-ZO)**2] *[(XS-X0)**2 +(YS-YO)**2 +(ZS-ZO)**2] ={(X-X0)**2/[(XS-X0)*(YS-Y0)]**2} *[Lb**2-(YS-YO)**2] * Lb**2W '** 2 = (X-X0) ** 2+ {YO-Y0 + (X-X0) * [(XS-X0) ** 2+ (ZS-ZO) ** 2] / [( XS-X0) * (YS-Y0)]} ** 2+ [Z0 + (X-X0) * (ZS-Z0) / (XS-X0) -Z0] ** 2 = (X-X0) ** 2 + {(X-X0) * [(XS-X0) ** 2 + (ZS-ZO) ** 2] / [(XS-X0) * (YS-Y0)]} ** 2 + [(X- X0) * (ZS-Z0) / (XS-X0)] ** 2 = (X-X0) ** 2 * {1 + {[(XS-X0) ** 2 + (ZS-ZO) ** 2 ] / [(XS-X0) * (YS-Y0)]} ** 2 + [(Z S-Z0) / (XS-X0)] ** 2} = {(X-X0) ** 2 / [ (XS-X0) * (YS-Y0)] ** 2} * {[(XS-X0) * (YS-Y0)] ** 2 + [(XS-X0) ** 2+ (ZS-ZO) ** 2] ** 2 + [(ZS-Z0) * (YS-Y0)] ** 2} = {(X-X0) ** 2 / [(XS-X0) * (YS-Y0)] * * 2} * [(XS-X0) ** 2 + (ZS-ZO) ** 2] * [(XS-X0) ** 2 + (YS-YO) ** 2 + (ZS-ZO) ** 2] = {(X-X0) ** 2 / [(XS-X0) * (YS-Y0)] ** 2} * [Lb ** 2- (YS-YO) ** 2] * Lb ** Two

【0135】画面と撮影対象物の位置関係から(XS-X0)
<0 。(YS-Y0)<0なら視線方向は上向きで、W'>0なら
(X-X0)<0 W'=-{(X-X0)/[(XS-X0)*(YS-Y0)]}*Lb*SQRT[Lb**2-(YS-YO)**2] (X-X0)=-W'*(XS-X0)*(YS-Y0)/{Lb*SQRT[Lb**2-(YS-YO)**2]} X = X0 -W'*(XS-X0)*(YS-Y0)/{Lb*SQRT[Lb**2-(YS-YO)**2]} Y=Y0 -(X-X0)*[(XS-X0)**2 +(ZS-ZO)**2]/[(XS-X0)*(YS-Y0)] =Y0 +W'*(XS-X0)*(YS-Y0)/{Lb*SQRT[Lb**2-(YS-YO)**2]}*[Lb**2-(YS-YO)**2] /[(XS-X0)*(YS-Y0)] =Y0 +W'*SQRT[Lb**2-(YS-YO)**2]}/Lb
From the positional relationship between the screen and the object to be photographed, (XS-X0)
<0. If (YS-Y0) <0, the line of sight is upward, if W '> 0,
(X-X0) <0 W '=-{(X-X0) / [(XS-X0) * (YS-Y0)]} * Lb * SQRT [Lb ** 2- (YS-YO) ** 2 ] (X-X0) =-W '* (XS-X0) * (YS-Y0) / {Lb * SQRT [Lb ** 2- (YS-YO) ** 2]} X = X0 -W' * (XS-X0) * (YS-Y0) / {Lb * SQRT [Lb ** 2- (YS-YO) ** 2]} Y = Y0-(X-X0) * [(XS-X0) ** 2 + (ZS-ZO) ** 2] / [(XS-X0) * (YS-Y0)] = Y0 + W '* (XS-X0) * (YS-Y0) / (Lb * SQRT [Lb * * 2- (YS-YO) ** 2]} * [Lb ** 2- (YS-YO) ** 2] / [(XS-X0) * (YS-Y0)] = Y0 + W '* SQRT [Lb ** 2- (YS-YO) ** 2]} / Lb

【0136】 Z=Z0 +(X-X0)*(ZS-Z0)/(XS-X0) =Z0 -W'*(XS-X0)*(YS-Y0)/{Lb*SQRT[Lb**2-(YS-YO)**2]} *(ZS-Z0)/(XS-X0) =Z0 -W'*(YS-Y0)/{Lb*SQRT[Lb**2-(YS-YO)**2]} *(ZS-Z0) =Z0 -W'*(YS-Y0)*(ZS-Z0)/{Lb*SQRT[Lb**2-(YS-YO)**2]} Z = Z0 + (X−X0) * (ZS−Z0) / (XS−X0) = Z0−W ′ * (XS−X0) * (YS−Y0) / (Lb * SQRT [Lb ** 2- (YS-YO) ** 2]} * (ZS-Z0) / (XS-X0) = Z0 -W '* (YS-Y0) / {Lb * SQRT [Lb ** 2- (YS-YO ) ** 2]} * (ZS-Z0) = Z0 -W '* (YS-Y0) * (ZS-Z0) / {Lb * SQRT [Lb ** 2- (YS-YO) ** 2]}

【0137】(V'、0)の3次元座標: ( X0 +V'*(Z
S-Z0)/SQRT[Lb**2-(YS-Y0)**2]、Y0、Z0-V'*(XS-X0)/SQ
RT[Lb**2-(YS-Y0)**2] ) (0、W')の3次元座標:(X0-W'*(XS-X0)*(YS-Y0)/{Lb*S
QRT[Lb**2-(YS-YO)**2]}、 Y0+W'*SQR
T[Lb**2-(YS-YO)**2]/Lb、Z0-W'*(YS-Y0)*(ZS-Z0)/{Lb*
SQRT[Lb**2-(YS-YO)**2]} ) (V'、W')の3次元座標(X'、Y'、Z')と(X0、Y0、Z0)の
中間の座標は、(V'、0)の3次元座標と(0、W')の3
次元座標の中間の座標と一致する。
The three-dimensional coordinates of (V ', 0): (X0 + V' * (Z
S-Z0) / SQRT [Lb ** 2- (YS-Y0) ** 2], Y0, Z0-V '* (XS-X0) / SQ
RT [Lb ** 2- (YS-Y0) ** 2]) Three-dimensional coordinates of (0, W '): (X0-W' * (XS-X0) * (YS-Y0) / {Lb * S
QRT [Lb ** 2- (YS-YO) ** 2]}, Y0 + W '* SQR
T [Lb ** 2- (YS-YO) ** 2] / Lb, Z0-W '* (YS-Y0) * (ZS-Z0) / {Lb *
SQRT [Lb ** 2- (YS-YO) ** 2]}) Intermediate between the three-dimensional coordinates (X ', Y', Z ') of (V', W ') and (X0, Y0, Z0) The coordinates are the three-dimensional coordinates of (V ', 0) and the three
Matches the middle coordinates of the dimensional coordinates.

【0138】従って、 X'={X0 +[V'*(ZS-Z0)*Lb -W'*(XS-X0)*(YS-Y0)]/{Lb*SQRT[Lb**2-(YS-YO)**2] 、Y'= Y0 +W'*SQRT[Lb**2-(YS-YO)**2]/Lb、Z'= Z0-[V'*(XS-X0)*Lb +W'*(YS-Y0 )*(ZS-Z0)]/{Lb*SQRT[Lb**2-(YS-YO)**2]}(X'-XS) =(X0-XS) +[V'*(ZS-Z0)*Lb -W'*(XS-X0)*(YS-Y0)]/{Lb*SQRT[Lb**2-(YS-YO)**2] 、(Y'-YS)= (Y0-YS) +W'*SQRT[Lb**2-(YS-YO)**2]/Lb、(Z'-ZS) =(Z0-ZS)-[V'*(XS-X0)*Lb+W'*(YS-Y0)*(ZS-Z0)]/{Lb*SQRT[Lb**2-(YS-YO)**2] }Therefore, X '= {X0 + [V' * (ZS-Z0) * Lb-W '* (XS-X0) * (YS-Y0)] / {Lb * SQRT [Lb ** 2- ( YS-YO) ** 2], Y '= Y0 + W' * SQRT [Lb ** 2- (YS-YO) ** 2] / Lb, Z '= Z0- [V' * (XS-X0) * Lb + W '* (YS-Y0) * (ZS-Z0)] / {Lb * SQRT [Lb ** 2- (YS-YO) ** 2]} (X'-XS) = (X0-XS ) + [V '* (ZS-Z0) * Lb -W' * (XS-X0) * (YS-Y0)] / {Lb * SQRT [Lb ** 2- (YS-YO) ** 2], (Y'-YS) = (Y0-YS) + W '* SQRT [Lb ** 2- (YS-YO) ** 2] / Lb, (Z'-ZS) = (Z0-ZS)-[V '* (XS-X0) * Lb + W' * (YS-Y0) * (ZS-Z0)] / {Lb * SQRT [Lb ** 2- (YS-YO) ** 2]}

【0139】 (7式の独立性) La*[(Fybn-Ysb)*Fzsb-(Fzbn-Fzsb)*Ysb]+ yan*[(Fzbn-Fzsb)*Xsb-(Fxbn-Xsb)*Fz sb] + zan*[(Fxbn-Xsb)*Ysb-(Fybn-Ysb)*Xsb ]=0 ・・・・ La*[(Fybn-Ysb)-(Fzbn-Fzsb)*Ysb/Fzsb]+ yan*[(Fzbn-Fzsb)*Xsb/Fzsb-(Fxbn-Xs b)] + zan*[(Fxbn-Xsb)*Ysb/Fzsb-(Fybn-Ysb)*Xsb/Fzsb ]=0 ・・・・(Independence of Equation 7) La * [(Fybn-Ysb) * Fzsb- (Fzbn-Fzsb) * Ysb] + yan * [(Fzbn-Fzsb) * Xsb- (Fxbn-Xsb) * Fz sb] + zan * [(Fxbn-Xsb) * Ysb- (Fybn-Ysb) * Xsb] = 0 ... La * [(Fybn-Ysb)-(Fzbn-Fzsb) * Ysb / Fzsb] + yan * [( Fzbn-Fzsb) * Xsb / Fzsb- (Fxbn-Xs b)] + zan * [(Fxbn-Xsb) * Ysb / Fzsb- (Fybn-Ysb) * Xsb / Fzsb] = 0 ...

【0140】各画素(Vn'、Wn')の3次元座標を(Fxb
n、Fybn、Fzbn)と表すと、 Fxbn=X0 +[V'*(ZS-Z0)*Lb -W'*(XS-X0)*(YS-Y0)]/{Lb*
SQRT[Lb**2-(YS-YO)**2]、 Fybn=Y0 +W'*SQRT[Lb**2-(YS-YO)**2]/Lb、 Fzbn=Z0 -[V'*(XS-X0)*Lb +W'*(YS-Y0)*(ZS-Z0)]/{Lb*
SQRT[Lb**2-(YS-YO)**2] 但し、XS=Xsb、YS=Ysb、ZS=Fzsb。
The three-dimensional coordinates of each pixel (Vn ', Wn') are represented by (Fxb
n, Fybn, Fzbn), Fxbn = X0 + [V '* (ZS-Z0) * Lb-W' * (XS-X0) * (YS-Y0)] / {Lb *
SQRT [Lb ** 2- (YS-YO) ** 2], Fybn = Y0 + W '* SQRT [Lb ** 2- (YS-YO) ** 2] / Lb, Fzbn = Z0- [V' * (XS-X0) * Lb + W '* (YS-Y0) * (ZS-Z0)] / {Lb *
SQRT [Lb ** 2- (YS-YO) ** 2] where XS = Xsb, YS = Ysb, ZS = Fzsb.

【0141】例えば、(Fybn-Ysb)-(Fzbn-Fzsb)*Ysb/Fzs
b=[-(Ysb-YO)+Wn'*SQRT[Lb**2-(Ysb-YO)**2]/Lb]+{(Fz
sb-ZO)+[Vn'*(Xsb-X0)*Lb+Wn'*(Ysb-Y0)*(Fzsb-Z0)]/{L
b*SQRT[Lb**2-(Ysb-YO)**2]}*Ysb/Fzsb 上記式における変数は、(Xsb-X0)、(Ysb-Y0)、(Fzsb-Z
0)、φ、Ysb/Fzsbである。
For example, (Fybn-Ysb)-(Fzbn-Fzsb) * Ysb / Fzs
b = [-(Ysb-YO) + Wn '* SQRT [Lb ** 2- (Ysb-YO) ** 2] / Lb] + {(Fz
(sb-ZO) + [Vn '* (Xsb-X0) * Lb + Wn' * (Ysb-Y0) * (Fzsb-Z0)] / {L
b * SQRT [Lb ** 2- (Ysb-YO) ** 2]} * Ysb / Fzsb The variables in the above equation are (Xsb-X0), (Ysb-Y0), (Fzsb-Z
0), φ, and Ysb / Fzsb.

【0142】[(Fzbn-Fzsb)*Xsb/Fzsb-(Fxbn-Xsb)]、[(F
xbn-Xsb)*Ysb/Fzsb-(Fybn-Ysb)*Xsb/Fzsb ]も同様に表
すと、式は、La、(Xsb-X0)、(Ysb-Y0)、(Fzsb-Z0)、
φ、Xsb/Fzsb、Ysb/Fzsbの7変数で表される。この7変
数で表される式に於いては、各画素の組毎にyan、za
n、Vn'、Wn'が独立であるため、原則として各画素毎に
式が独立であることが確認できる。
[(Fzbn-Fzsb) * Xsb / Fzsb- (Fxbn-Xsb)], [(F
xbn-Xsb) * Ysb / Fzsb- (Fybn-Ysb) * Xsb / Fzsb], the expression is La, (Xsb-X0), (Ysb-Y0), (Fzsb-Z0),
φ, Xsb / Fzsb, and Ysb / Fzsb. In the expression represented by these seven variables, yan, za
Since n, Vn ', and Wn' are independent, it can be confirmed that the formula is independent for each pixel in principle.

【0143】また、0026項において同一対象物を異
なる位置から撮影した複数の画面とその撮影した視点を
同一座標系に配する場合に、撮影対象上の7点ないし8
点を用いて、A、B両画面と2視点の位置を定めることも
できる。スリット光源を縦方向と横方向に走査し、スリ
ット光源の照射されたところの境界線に位置する画素
で、且つ縦方向と横方向の境界線が交差するところの画
素を特定し、このような画素を6〜8個選定して、A、B
両画面及び視点の位置を求めても良い。また、模様の複
雑な撮影対象を立体データ化する場合、そのようにして
多数の点をA、B両画面で特定することにより、実施例6
の特異点と同様にして、特定され対応付けられた画素に
挟まれた同一α値線上の画素の対応付けをより容易にし
ても良い。
In the case where a plurality of screens in which the same object is photographed from different positions and the viewpoints in which the images are photographed are arranged in the same coordinate system in the item 0026, when seven or eight points on the photographing object are arranged.
Using the points, the positions of both the A and B screens and the two viewpoints can be determined. Scan the slit light source in the vertical and horizontal directions, identify the pixels located at the boundary where the slit light source is irradiated, and identify the pixels where the vertical and horizontal boundaries intersect, Select 6 to 8 pixels, A, B
The positions of both screens and the viewpoint may be obtained. Further, in the case where a shooting target having a complicated pattern is converted into three-dimensional data, a large number of points are specified on both the A and B screens in this manner.
In the same manner as the singular point of, the association of pixels on the same α-value line sandwiched between the identified and associated pixels may be made easier.

【0144】スリット光源に替えて、角張ったエッジを
持つスポット光線を用いても良い。スポット光線を感知
した単一又は複数の画素の中心の座標をA、B両画面で対
応させ、このような対応した座標5から8点を用いて
A、B両画面の相対的な位置関係を求めてもよい。
Instead of the slit light source, a spot light beam having an angular edge may be used. The coordinates of the center of a single or a plurality of pixels that have sensed a spot light beam are made to correspond on both the A and B screens, and the relative positional relationship between the A and B screens is calculated using such corresponding 5 to 8 points. You may ask.

【0145】画素を特定せず、Sa、Sb両視点から同時に
見える部位を特定することで画素の特定に替えることが
できる。即ち、同一部位の画像のα値の最大値及び最小
値、あるいは凸部などの極大値、極小値のα値はA、B両
画面において一致するため、このようなα値が最大値、
最小値、極大値、極小値などとなるA、B両画面の7組の
画素の座標からyan、zan、Fxbn、Fybn、Fzbnなどの座標
を算出して0096項の式を用いて7変数を求めても
良い。このようにすれば、同一部位の特定だけでA、B両
画面を同一座標系に置くことができる。
By specifying a part that can be viewed simultaneously from both the Sa and Sb viewpoints without specifying a pixel, the specification can be replaced with specifying a pixel. That is, since the maximum value and the minimum value of the α value of the image of the same region, or the maximum value of the convex portion and the α value of the minimum value match in both the A and B screens, such an α value is the maximum value,
The coordinates of yan, zan, Fxbn, Fybn, Fzbn, etc. are calculated from the coordinates of the seven sets of pixels on both the A and B screens that are the minimum value, the maximum value, the minimum value, etc., and the seven variables are calculated using the expression of the 0096 term. You may ask. By doing so, both the A and B screens can be placed in the same coordinate system only by specifying the same part.

【0146】さらに、4以上の部位を色データの分布な
どによって識別し、その内7以上の最大値、最小値など
のα値の一致する画素の組が一組のみ見つけられれば、
これがSa、Sb両視点から同時に見える点だと考えること
ができ、画面の座標を定めることも自動化できる。用い
るA、B画面の画像中心が不明な場合は、各画面毎に変数
が2個ずつ、計4個増加する。従って、その場合は対応
する画素を11組定めて、各対応する画素の組毎にα値
が一致するという条件によって、11変数を求める。
Further, if four or more parts are identified by the distribution of color data and the like, and if only one set of pixels having the same α value such as the maximum value or the minimum value of seven or more is found,
It can be considered that this is a point that can be seen from both Sa and Sb viewpoints at the same time, and the coordinates of the screen can be automatically determined. If the image centers of the screens A and B to be used are unknown, the number of variables is increased by two for each screen, that is, a total of four. Therefore, in that case, 11 sets of corresponding pixels are determined, and 11 variables are obtained under the condition that the α value matches each corresponding set of pixels.

【0147】解を求める方法の一つは、以上のような多
連立方程式を解くことである。そのようにしても良いの
であるが、解法が非常に複雑であるため、通常は近似解
(初期値)を求め、各変数の近似解に一定の微少変動量
を加減した3通りのケースを与え、各変数に於ける3通
りの組み合わせ、即ち8変数であれば3の8乗−1=6,
560通りをシュミレーションし、近似解の精度を次第に
高めていく方法を取りうる。
One of the methods for finding a solution is to solve the above simultaneous equations. Although it is possible to do so, since the solution method is very complicated, usually, an approximate solution (initial value) is obtained, and three cases are obtained in which the approximate solution of each variable is adjusted by a certain small amount of variation. , 3 combinations of each variable, that is, if it is 8 variables, 3 8 −1 = 6,
We can simulate 560 ways and gradually increase the accuracy of the approximate solution.

【0148】その場合、0074項から0077項の式
は近似解を得る有効な手段となる。建築物などでは、座
標を想定しうる点は多数見つかり、正確性は欠くとして
も、近似解を求めるための手段としては十分な3点の座
標は求めうる。また、その3座標と画像の中心線の位置
関係も大凡は判断しうる。適切な近似解が得られれば、
上記の方法によって、より少ない計算量で、複数の画
面、視点を同一座標系に置いて正確な位置関係を定める
ことが可能になる。
In this case, the expressions of the items 0074 to 0077 are effective means for obtaining an approximate solution. In a building or the like, many points whose coordinates can be assumed are found, and even if the accuracy is lacking, the coordinates of three points sufficient as a means for obtaining an approximate solution can be obtained. Also, the positional relationship between the three coordinates and the center line of the image can be roughly determined. If an appropriate approximate solution is obtained,
According to the above method, it is possible to determine an accurate positional relationship with a plurality of screens and viewpoints in the same coordinate system with a smaller amount of calculation.

【0149】これらの方法を用いて、複数の画面相互の
位置関係を求め、それらを同一座標系に置くことができ
る。この場合、例えば一の画像の基本構図は壁面、床な
どを用い、他方の画像では、先の基本構図上に求めた3
点の座標を用いる、窓枠などの長方形を共通に用いるな
ど異なる方法を組み合わせてもよい。実際の街並みの写
真では、正確な座標の分かった3点を見つけることは難
しい。しかし、建物の設計図や地図を用いたり、窓枠、
階高、柱間隔などによって概ねの座標を求めることがで
きる。「立体データ作成方法」によって基本構図を割り
出し、これから座標を推定することもできる。このよう
にして得た座標からでも、0147項から0148項の
初期値設定としては十分な精度の近似解を求めうる。
By using these methods, the positional relationship between a plurality of screens can be obtained, and they can be placed in the same coordinate system. In this case, for example, the basic composition of one image uses a wall surface, a floor, and the like, and the other image uses the 3
Different methods may be combined, such as using the coordinates of points or using a rectangle such as a window frame in common. It is difficult to find three points with accurate coordinates in an actual cityscape photograph. However, they use building drawings and maps,
Approximate coordinates can be obtained by floor height, column spacing, and the like. The basic composition can be determined by the “three-dimensional data creation method”, and the coordinates can be estimated from this. Even from the coordinates thus obtained, an approximate solution with sufficient accuracy can be obtained for setting the initial values of the terms 0147 to 0148.

【0150】同一座標系に置かれた複数の画像から、先
の0042項以降に示した立体データ作成方法に基づ
き、撮影対象空間の立体データが作成できる。また、画
像の画素の粗さなどに起因して十分な精度の立体データ
を作製できなかった部位については、「立体データ作成
方法」に示したように適当な立体データモデルを用い
て、より精緻と判断される立体データに修正することが
できる。完成した立体データの各点と視点を結んだ線が
画面と交差するところの色データを3次元空間上の立体
データの各点に与えることにより、色データを持つ立体
データが完成する。(テクスチャマッピング) この点の集合により構成される立体データは、隣接する
3点との中間点を取るなど、適当な方法を選択して立体
ポリゴンデータとすることも可能である。
[0150] From a plurality of images placed in the same coordinate system, three-dimensional data in the space to be imaged can be created based on the three-dimensional data creation method described in the section 0042 and thereafter. In addition, for parts where three-dimensional data with sufficient accuracy could not be created due to the roughness of the pixels in the image, etc., use an appropriate three-dimensional data model as described in “3D data creation method” to refine the data. Can be corrected to three-dimensional data determined to be. By giving the color data where the line connecting the points of the completed three-dimensional data and the viewpoint intersects the screen to each point of the three-dimensional data in the three-dimensional space, the three-dimensional data having the color data is completed. (Texture Mapping) The three-dimensional data constituted by the set of points can be converted into three-dimensional polygon data by selecting an appropriate method such as taking an intermediate point between three adjacent points.

【0151】実施の形態2の0049項から0053項
の領域の一対一対応を完了した段階で、対応する画素の
組の大凡の位置を入力操作によって指定し、色データが
一致する突起状の先端の画素を自動的に選択して6ない
し8組の画素を対応させ、その内の任意の3点が表す撮
影対象点の大凡の座標を与えると、実施例3の0071
項の方法により、2画面を同一座標系に配するようにで
きる。カメラから画像を取り込むと、このような簡易な
操作で自動的に撮影対象の立体データを作成するシステ
ムが作れる。
When the one-to-one correspondence between the regions 0049 to 0053 in the second embodiment has been completed, the approximate position of the corresponding pixel set is designated by an input operation, and the protruding tip having the same color data. Are automatically selected to correspond to six to eight pairs of pixels, and the approximate coordinates of the imaging target point represented by any three of them are given.
By the method described in the section, the two screens can be arranged in the same coordinate system. When an image is captured from a camera, a system for automatically creating three-dimensional data of a shooting target by such a simple operation can be created.

【0152】[0152]

【実施例】実施例1.スリット光源11を用いて立体デ
ータを作成する実施例を記す。図1はこの実施例の構成
を示すブロック図である。図において、10は撮影手段
であるカメラA、11はスリット光源、12は撮影手段
であるカメラB、13は画像記憶領域、14はコンピュ
ータ、15はモニター、16は操作者、17は地図デー
タ、18は基準となる枠、19は位置計測手段であるG
PSであり、コンピュータ14は計算手段及び生成手段
を有しており、コンピュータ14内で立体データの作成
処理が行われている。
[Embodiment 1] An embodiment in which three-dimensional data is created using the slit light source 11 will be described. FIG. 1 is a block diagram showing the configuration of this embodiment. In the figure, reference numeral 10 denotes a camera A as a photographing means, 11 denotes a slit light source, 12 denotes a camera B as a photographing means, 13 denotes an image storage area, 14 denotes a computer, 15 denotes a monitor, 16 denotes an operator, 17 denotes map data, Reference numeral 18 denotes a frame serving as a reference, and 19 denotes a position measuring means G.
The computer 14 has a calculating unit and a generating unit, and the computer 14 performs a process of creating three-dimensional data.

【0153】次に、この実施例の動作について説明す
る。まず、「立体データ作成方法」に記述されているよ
うに、基準となる枠18をおいて、カメラA10、カメ
ラB12によって撮影されたA、B両画面からそれぞれ基
本構図を割り出し、それらの基本構図を重ねて視点Saと
視点Sbを通る直線をZ軸とした同一座標系におく。A、B
両画面の各画素na、nbは、以下のデータ形式を有し、画
像記憶領域13に置かれる。 画素na(b)=(画面No.、3次元座標Xna、Yna、Zna、座
標のα値、当該画素が光を感知し始めた時刻、感知し終
る時刻) 尚、α値はα=Yna/Xnaとして与える。
Next, the operation of this embodiment will be described. First, as described in “3D data creation method”, a basic composition is determined from both the A and B screens captured by the camera A10 and the camera B12 with the frame 18 serving as a reference, and the basic composition is calculated. Are placed in the same coordinate system with the straight line passing through the viewpoint Sa and the viewpoint Sb as the Z axis. A, B
Each pixel na, nb of both screens has the following data format and is stored in the image storage area 13. Pixel na (b) = (screen No., three-dimensional coordinates Xna, Yna, Zna, α value of coordinates, time when the pixel starts sensing light, time when sensing ends) Note that α value is α = Yna / Give as Xna.

【0154】スリット光源11を縦方向に置いて、左か
ら右へ(逆でも可)走らせながら照射する。カメラA1
0、カメラB12はこれを短い間隔で同時に撮影し、そ
の結果、画像記憶領域13の各画素固有のデータには、
その光を感知し始めた時刻とし終わる時刻が記録され
る。
Irradiation is performed while the slit light source 11 is placed in the vertical direction and runs from left to right (or vice versa). Camera A1
0, the camera B12 simultaneously captures the images at short intervals, and as a result, data unique to each pixel in the image storage area 13 includes:
The time when the light starts to be sensed and the time when it ends are recorded.

【0155】一般に同時刻に光を関知した画素を識別し
て対応させる場合、スリット光源の照射された箇所と照
射されていない箇所の境界に位置する画素(図7の画素
tv)を採用する。このような公知の方法を採ってもよい
が、その場合の技術上の課題の一つは、本来の境界線で
ある仮想画素Pvと光を関知している画素pvは最大で隣接
画素の距離Δlp(点pvと点pv+1の距離)分の誤差が生じ
ることである。同一α値線上において画素が無限大の密
度であったと仮定した場合、時刻tvに光を感知し始めた
仮想画素Pva(b)のβ値は、実際の有限個の画素数におい
て光を感じ始めた画素をpva(b)として、Pva(b)=pva(b)
+Δlpa(b)と表せる。
In general, when identifying pixels corresponding to light at the same time and making them correspond to each other, pixels located at a boundary between a portion irradiated by the slit light source and a portion not irradiated (the pixel in FIG. 7)
tv). Although such a known method may be adopted, one of the technical problems in that case is that the virtual pixel Pv, which is the original boundary line, and the pixel pv, which is related to light, are at most the distance between adjacent pixels. An error of Δlp (the distance between the point pv and the point pv + 1) occurs. Assuming that the pixels have an infinite density on the same α-value line, the β value of the virtual pixel Pva (b), which started to sense light at time tv, starts to sense light at the actual finite number of pixels. Pva (b) = pva (b) where pva (b) is the pixel
+ Δlpa (b).

【0156】尚、Δlpa(b)は、画面A(B)における、1画
素間隔以内の誤差を表す。図7ではPva(b)、pva(b)、Pu
a(b)、pua(b)を単にPv、pv、Pu、puと表記している。同
様に、時刻tuに光を感知し終わる仮想画素Pua(b)のβ値
は、実際に光を感じ始めた画素をpua(b)として、Pua(b)
=pua(b)−Δlpa'(b)と表せる。
Note that Δlpa (b) represents an error in the screen A (B) within one pixel interval. In FIG. 7, Pva (b), pva (b), Pu
a (b) and pua (b) are simply described as Pv, pv, Pu, and pu. Similarly, the β value of the virtual pixel Pua (b) that finishes sensing light at time tu is Pua (b), with the pixel actually starting to sense light as pua (b).
= Pua (b) -Δlpa '(b).

【0157】スリット光源が極めて細ければ、時刻tvと
tu、仮想画素PvとPuは限りなく近づく。これを仮想画素
Pua2、Pub2とする。スリット光源の回転速度が時刻tvか
ら時刻tuまで一定であれば、A、B両画面において時刻(t
v+tu)/2におけるA、B両画面の仮想画素Pua2、Pub2の位
置を近似的にPua2=(Pva+Pua)/2、Pub2=(Pvb+Pub)/2
として与えることができる。 Pua2=(Pva+Pua)/2=(pva+Δlpa)/2+(pua−Δlpa')/2 =(pva+pua)/2+(Δlpa−Δlpa')/2 Pub2=(Pvb+Pub)/2=(pvb+Δlpb)/2+(pub−Δlpb')/2 =(pvb+pub)/2+(Δlpb−Δlpb')/2
If the slit light source is extremely thin, the time tv
tu, the virtual pixels Pv and Pu are as close as possible. This is a virtual pixel
Pua2 and Pub2. If the rotation speed of the slit light source is constant from time tv to time tu, the time (t
Approximately the positions of the virtual pixels Pua2 and Pub2 on both the A and B screens in v + tu) / 2, Pu2 = (Pva + Pua) / 2, Pub2 = (Pvb + Pub) / 2
Can be given as Pua2 = (Pva + Pua) / 2 = (pva + Δlpa) / 2 + (pua−Δlpa ′) / 2 = (pva + pua) / 2 + (Δlpa−Δlpa ′) / 2 Pub2 = (Pvb + Pub) / 2 = (pvb + Δlpb) / 2 + (pub) −Δlpb ′) / 2 = (pvb + pub) / 2 + (Δlpb−Δlpb ′) / 2

【0158】当然、スリット光源とA、B両画面はそれぞ
れ異なる角度、位置に配置されており、これによる誤差
が生じるのであるが、スリット光源の回転速度が撮影間
隔に比して十分ゆっくりであれば、同一α値線上におい
て、A、B両画面で同一撮影対象(同一感知開始時刻で且
つ同一感知最終時刻)と認識できる画素を数個(例えば
1〜3個程度)に絞り込むことができ、その誤差は画素
間隔に比して十分小さいと考えられる。(Δlpa−Δlp
a')/2及び(Δlpb−Δlpb')/2の標準偏差は、Δlpa及び
Δlpbに比べて小さくなるため、単に時刻tvのときの位
置をスリット光源の境界線の画素Pvとするよりも精度の
向上が期待できる。
Naturally, the slit light source and the A and B screens are arranged at different angles and positions, respectively, and this causes an error. However, if the rotation speed of the slit light source is sufficiently slow as compared with the photographing interval. For example, on the same α value line, the number of pixels (for example, about 1 to 3) that can be recognized as the same shooting target (the same sensing start time and the same sensing end time) on both screens A and B can be narrowed down, The error is considered to be sufficiently smaller than the pixel interval. (Δlpa−Δlp
Since the standard deviations of a ′) / 2 and (Δlpb−Δlpb ′) / 2 are smaller than Δlpa and Δlpb, the accuracy is more accurate than simply setting the position at time tv to the pixel Pv of the boundary line of the slit light source. Can be expected to improve.

【0159】同一α値線上において、同一時刻tvに光を
感知し始め、同一時刻tuに光を感知し終わる画素が複数
(pu・・・pv)あった場合は、時刻(tv+tu)/2のときの仮
想画素の座標をその両端の画素pu、pvの中間の座標((X
pv+Xpu)/2、(Ypv+Ypu)/2、(Zpv+Zpu)/2)として与え、
同一時刻tvに光を感知し始め、同一時刻tuに光を感知し
終わる画素が単一であった場合はその画素の座標そのも
のとする。尚、立体データ作成時に、α値の異なるA、B
両画面の画素を対応させて立体データを得ることはない
ので、異なるα値において時刻を捉える基準の整合がと
れている必要はない。
On the same α-value line, a plurality of pixels start sensing light at the same time tv and finish sensing light at the same time tu.
(pu... pv), the coordinates of the virtual pixel at time (tv + tu) / 2 are set to the coordinates ((X
pv + Xpu) / 2, (Ypv + Ypu) / 2, (Zpv + Zpu) / 2)
If there is a single pixel that starts sensing light at the same time tv and finishes sensing light at the same time tu, the coordinates of the pixel itself are used. When creating the 3D data, A, B with different α values
Since the three-dimensional data is not obtained by associating the pixels of both screens, it is not necessary to match the standards for capturing the time at different α values.

【0160】時刻(tv+tu)/2のときの仮想画素の座標を
求めること自体についてはスリット光源の回転速度に高
精度を求める必要はないが、A、B両画面における同一撮
影時刻の画素の対応を行うため、いずれか一方の画面の
撮影時刻に合わせて他方画面の座標の修正を行う必要が
ある場合において、誤差の発生を防ぐために必要な精度
が求められる。これは、スリット光源の境界線を座標と
して用いる公知の方法でも同様である。スリット光源の
回転速度が速く、前記の方法の方が誤差が大きいと判断
される場合は、時刻tvのときのスリット光源の境界線の
画素pvの座標、及び同一α値線上で隣接し光を感知し始
める直前の画素pv+1の座標の中間値を、時刻tvの座標と
して与える公知の方法を用いても良い。
Although it is not necessary to obtain high precision in the rotation speed of the slit light source for obtaining the coordinates of the virtual pixel at the time (tv + tu) / 2, the correspondence between the pixels at the same shooting time in both the A and B screens is not required. Therefore, when it is necessary to correct the coordinates of one of the screens in accordance with the photographing time of one of the screens, the accuracy required to prevent the occurrence of an error is required. The same applies to a known method using the boundary of the slit light source as coordinates. If the rotation speed of the slit light source is high and it is determined that the error is greater in the above method, the coordinates of the pixel pv of the boundary line of the slit light source at time tv, and light adjacent to the same α value line A well-known method of giving an intermediate value of the coordinates of the pixel pv + 1 immediately before the start of sensing as the coordinates of the time tv may be used.

【0161】2台のカメラの撮影時刻が完全に同期しな
い場合、その時刻の差分だけスリット光源が回転し、そ
のままでは同時刻の撮影による同一点の識別はできな
い。A、B両画像の撮影時刻を各々精緻に計測することが
可能であれば、一方の画面の撮影時刻(tv+tu)/2を所与
として、他方画面における撮影時刻(tv'+tu')/2におけ
る仮想画素の座標から、撮影時刻(tv+tu)/2における仮
想画素の座標を推定する必要がある。
If the photographing times of the two cameras are not completely synchronized, the slit light source rotates by the difference between the times, and the same point cannot be identified by photographing at the same time as it is. If it is possible to precisely measure the shooting time of each of the A and B images, the shooting time (tv + tu) / 2 of one screen is given, and the shooting time (tv '+ tu') / 2 of the other screen is given. It is necessary to estimate the coordinates of the virtual pixel at the shooting time (tv + tu) / 2 from the coordinates of the virtual pixel in.

【0162】コンピュータ14は、任意の時刻tに照射
されたスリット光源11を感知した画素を以下の方法で
定める。 時刻tが感知し始めた時刻と感知し終わる時刻の間で
ある画素を抽出し、その中から画面の上部の列から順に
同一α値線上で、各列毎に感知し始めた時刻と感知し終
わる時刻の中央値が最も時刻tに近い画素pを選別す
る。こうした画素が複数あれば、それらの両端の画素の
座標の中間値を仮想画素pの座標として与える。
The computer 14 determines a pixel which senses the slit light source 11 irradiated at an arbitrary time t by the following method. Pixels that are between the time at which the time t began to be sensed and the time at which the sense ends are extracted, and the time when the sensing was started for each column on the same α value line in order from the upper row of the screen from among the pixels was detected. The pixel p whose median value at the end time is closest to the time t is selected. If there are a plurality of such pixels, an intermediate value of the coordinates of the pixels at both ends is given as the coordinates of the virtual pixel p.

【0163】そこで選別した各画素毎に、そのα値と
近い値を持ち且つその中央値に次いで近い中央値を持つ
画素qを用いて、時刻tの画像を表す仮想画素rを想定
し、その座標を以下の式によって求める。時刻t=(仮
想)画素pの時刻中央値、ならば、画素rは画素pその
ものとし、そうでなければ、仮想画素rの座標は以下の
式に基づき求める。 (時刻t-画素pの時刻中央値)/(画素qの時刻の中央値−画素pの時刻中央値 ) =(画素rのX座標−画素pのX座標)/(画素qのX座標−画素pのX座標 ) =(画素rのY座標−画素pのY座標)/(画素qのY座標−画素pのY座標 ) =(画素rのZ座標−画素pのZ座標)/(画素qのZ座標−画素pのZ座標 ) このとき、画素pの中央値がtより遅ければ、画素qは
tより早いものから、早ければ画素qはtより遅いもの
から選択した方がより望ましいと思われる。そのような
点がなければ、画素p自体をもって画素rとする。
Therefore, for each pixel selected, a virtual pixel r representing an image at time t is assumed using a pixel q having a value close to its α value and having a median value close to its median value. The coordinates are determined by the following equation. If time t = median time of the (virtual) pixel p, the pixel r is the pixel p itself; otherwise, the coordinates of the virtual pixel r are obtained based on the following equation. (Time t−median time of pixel p) / (median time of pixel q−median time of pixel p) = (X coordinate of pixel r−X coordinate of pixel p) / (X coordinate of pixel q− X coordinate of pixel p) = (Y coordinate of pixel r−Y coordinate of pixel p) / (Y coordinate of pixel q−Y coordinate of pixel p) = (Z coordinate of pixel r−Z coordinate of pixel p) / ( (Z coordinate of pixel q−Z coordinate of pixel p) At this time, if the median value of the pixel p is later than t, it is more preferable to select the pixel q from earlier than t and from earlier the pixel q from later than t. Seems desirable. If there is no such point, the pixel p itself is set as the pixel r.

【0164】このようにして仮定的に求められた複数の
画素rの組が、A、B両画面上に作成される。この段階で
は、画面上の線は点の集合によって表されており、これ
を連続した線とするため、以下の作業を行う。各画面上
に於いて、連続した4点を用いて、それら4点を通る3
次曲線を求める。この計算プロセスを各点の3次元座標
をそのまま用いると複雑になるため、一度画面を2次元
に変換し、2次元空間の座標として3次元曲線を求め
る。得られた3次元曲線の内、中間2点の間の線をこの
3次元曲線とする。これを1点ずつずらして繰り返すこ
とによって、全体の曲線を得る。線の両端だけはこの計
算をできないため、隣接したところの3次曲線を用い
る。このようにしてA、B両画面上に、時刻tのスリット
光源を感知した画像が曲線として求められる。
A group of a plurality of pixels r hypothetically obtained in this way is created on both the A and B screens. At this stage, the line on the screen is represented by a set of points, and the following operation is performed to make this a continuous line. On each screen, use four consecutive points and pass through those four points.
Find the next curve. Since the calculation process becomes complicated if the three-dimensional coordinates of each point are used as they are, the screen is once converted to two-dimensional, and a three-dimensional curve is obtained as coordinates in a two-dimensional space. A line between two intermediate points in the obtained three-dimensional curve is defined as the three-dimensional curve. By repeating this process one point at a time, the entire curve is obtained. Since this calculation cannot be performed only at both ends of the line, a cubic curve adjacent to the line is used. In this way, on both screens A and B, an image obtained by sensing the slit light source at time t is obtained as a curve.

【0165】任意のα値において、平面Y=αXとA、B
両画面における0164項の曲線との交点と、視点を結
んだ線の延長線2線は交差する。この交点を求めると、
これがスリット光源が撮影対象物に照射された箇所にあ
ることになる。この箇所の立体座標の集合が、スリット
光源が撮影対象物に照射され映し出された線の立体デー
タとなる。そこで、各画面のα値の最大から最小まで、
一定間隔毎のα値で平面Y=αXを求め、これによって
撮影対象物に照射された箇所の3次元座標を多数得るこ
とができる。この3次元座標の集合が、時刻tにおいて
判明した撮影対象物の立体データとなる。
For an arbitrary α value, the plane Y = αX and A, B
The intersection between the curve of the 0164 item and the two lines extending from the viewpoint intersect each other. Finding this intersection,
This is the position where the slit light source irradiates the object to be photographed. The set of the three-dimensional coordinates of this location is the three-dimensional data of the line projected and projected by the slit light source on the object. Therefore, from the maximum to the minimum of the α value of each screen,
The plane Y = αX is obtained with the α value at regular intervals, whereby a large number of three-dimensional coordinates of the position irradiated on the object can be obtained. The set of the three-dimensional coordinates becomes the three-dimensional data of the photographing target object determined at the time t.

【0166】変数時刻tを撮影時間間隔など短い時間間
隔で変更していき0162項から0165項のプロセス
を繰り返せば、撮影対象物全体の立体データが得られ
る。
By changing the variable time t at a short time interval such as a photographing time interval and repeating the processes from 0162 to 0165, three-dimensional data of the entire photographing object can be obtained.

【0167】撮影対象物上の輪あるいは領域の境界線を
立体データする方法は、発明の実施の形態2,0045
項から0048項、0049項から0053項記載の方
法により境界線上の画素を確定し、上記0164項の方
法を組み合わせて行う。この場合、スリット光源はない
のであるが、A、B両画面における線が特定されており、
各画面に於いて、隣接する各画素と視点を結んだ延長線
によって形成される面をつなぎ合わせて行くことによっ
て形成される曲面が、3次元空間上で交差することによ
って形成される3次元空間上の折れ線を、撮影対象物上
の輪の座標とすることで可能となる。従って、詳細は繰
り返しとなるので省略する。尚、隣接する領域の双方の
境界線上の画素の間に、線形又は非線形二乗法を用いて
適当な直線、曲線を当てはめ、これを境界線として用い
てもよい。
A method for producing three-dimensional data of a boundary of a ring or a region on an object to be photographed is described in the second embodiment of the present invention.
The pixels on the boundary line are determined by the methods described in the paragraphs 0048 to 0049 and 0049 to 0053, and the method is combined with the method described in the above item 0164. In this case, there is no slit light source, but the lines on both A and B screens are specified,
In each screen, a three-dimensional space formed by intersecting in a three-dimensional space a curved surface formed by connecting surfaces formed by extension lines connecting adjacent pixels to the viewpoints This is possible by setting the upper polygonal line as the coordinates of the ring on the photographing object. Therefore, the details will be omitted because they are repeated. In addition, an appropriate straight line or curve may be applied between pixels on both boundary lines of the adjacent region using a linear or nonlinear square method, and this may be used as the boundary line.

【0168】実施例2.同一撮影対象を撮影した画像か
ら、光源等を当てることなく、自動的ないし半自動的に
撮影対象の立体データを作成する装置の実施例を記す。
図2はこの実施例における解析の流れを示した図であ
る。この実施例では、図1のカメラA10、カメラB1
2は、画像A、画像Bと読み替え、スリット光源11と
基準となる枠18、地図データ17、GPS19は、こ
の実施例では不要である。
Embodiment 2 FIG. An embodiment of an apparatus for automatically or semi-automatically creating three-dimensional data of an imaging target from an image of the same imaging target without illuminating a light source or the like will be described.
FIG. 2 is a diagram showing a flow of analysis in this embodiment. In this embodiment, the cameras A10 and B1 of FIG.
2 is replaced with the image A and the image B, and the slit light source 11, the reference frame 18, the map data 17, and the GPS 19 are unnecessary in this embodiment.

【0169】画像A10と画像B12を画像記憶領域13
に保存する。各画像は、隣接する画素の色データの一定
水準以上の変化を基準として、複数の領域に分割され
る。画面左上隅の画素の属する領域別番号を1とし、隣
接する画素から順に判別作業を繰り返す。判別対象の画
素の色データが既に判別作業が完了している周囲の一画
素の色データと一定水準以上異なるとき、その2つ画素
は領域の境界線上にある。
The image A10 and the image B12 are stored in the image storage area 13
To save. Each image is divided into a plurality of regions on the basis of a change of the color data of adjacent pixels at a certain level or more. The area-based number to which the pixel at the upper left corner of the screen belongs is set to 1, and the determination operation is repeated from the adjacent pixels. When the color data of the pixel to be determined is different from the color data of one surrounding pixel for which the determination operation has already been completed by a certain level or more, the two pixels are on the boundary of the area.

【0170】当該判別対象画素の色データが、周囲の画
素の一つと同一(一定相違範囲内)であれば、当該判別
対象画素の属する領域別番号はその同一色データの画素
の領域別番号と同じにする。そうした画素が周囲になけ
れば、当該判別対象画素に新たな領域別番号を与える。
このようにして全ての画素が領域毎に振り分けられる。
If the color data of the pixel to be determined is the same as one of the surrounding pixels (within a certain difference range), the region number to which the pixel to be determined belongs is the same as the region number of the pixel of the same color data. Do the same. If there is no such pixel around, a new area-specific number is given to the pixel to be determined.
In this way, all pixels are assigned to each area.

【0171】尚、画像分割の方法は、実施例2記載の方
法の他、本項で示すデータ形式に合致させれば、既存の
方法など、どのような方法を用いてもよい。このとき、
その一の領域の画素数が一定数以下(例えば10個以
下)であり、そうした一定規模以下の領域が一定の狭い
領域(例えば画素数1千程度)の中に連続して一定数以
上存在するとき、この全体の領域を模様を持つ一の領域
として、領域別番号を統一する。
The image dividing method may be any method, such as the existing method, in addition to the method described in the second embodiment, as long as it conforms to the data format described in this section. At this time,
The number of pixels of the one area is equal to or less than a certain number (for example, 10 or less), and such an area having a certain scale or less continuously exists in a certain narrow area (for example, about 1,000 pixels) or more. At this time, the entire area is defined as one area having a pattern, and the area numbers are unified.

【0172】A、B両画面の全画素na、nbは、画像記憶領
域13において、以下のデータ形式を有する。 画素na=(画素NO.、画面No.、3次元座標Xna、Yna、Zn
a、領域別番号、境界線上か否かの判別、座標のα値、
画素の色データ(彩度、明度)、候補P1、P2、・・・、候
補Q1、Q2、Q3・・・)
All pixels na and nb of both the A and B screens have the following data format in the image storage area 13. Pixel na = (pixel No., screen No., three-dimensional coordinates Xna, Yna, Zn
a, area number, determination of whether or not it is on the boundary line, α value of coordinates,
Pixel color data (saturation, brightness), candidates P1, P2, ..., candidates Q1, Q2, Q3 ...)

【0173】候補P1、P2、・・・は、B画面上の領域
で、当該画素が属する領域が一対一対応する可能性のあ
る単一または複数の領域の番号である。以下、単に候補
Pという。候補Q1、Q2、・・・は、B画面上の領域で、
当該画素が対応する可能性のある単一または複数の画素
の番号である。以下、単に候補Qという。α値は α=Y
na/Xnaとして与える。また、一対一対応する可能性の
ある部位は、この段階では定まっていないため、このデ
ータは空白である。B画面の画素も同様。
.. Are the numbers of a single or a plurality of areas in the area on the B screen where the area to which the pixel belongs may correspond one-to-one. Hereinafter, it is simply referred to as a candidate P. Candidates Q1, Q2, ... are areas on screen B,
This is the number of a single pixel or a plurality of pixels to which the pixel may correspond. Hereinafter, it is simply referred to as candidate Q. α value is α = Y
Give as na / Xna. In addition, since data that may have a one-to-one correspondence has not been determined at this stage, this data is blank. The same applies to the pixels on the B screen.

【0174】2視点から同時に見える箇所を写した画素
であれば、少なくとも他方画面の一の画素と対応するは
ずである。色データの彩度及び明度の相違が一定以下の
場合、同一色データとして扱う。以下、全く同一の色デ
ータの場合は、全く同一と表記する。又、画素のα値が
同一か否かの判断基準は0059項から0061項の記
載に従う。
A pixel that captures a portion that can be viewed simultaneously from two viewpoints should correspond to at least one pixel on the other screen. When the difference between the saturation and the brightness of the color data is equal to or less than a certain value, it is treated as the same color data. Hereinafter, completely the same color data will be referred to as completely the same. The criterion for judging whether the α values of the pixels are the same is as described in the paragraphs 0059 to 0061.

【0175】A、B両画面の各部位のα値の最大と最小
を求め、A画面上の各部位について、そのα値の最大と
最小の範囲に重なるα値を持つB画面上の領域の番号を
全て求め、これらの領域の内、A画面の当該領域に存す
る画素の色データの分布と一定の基準に基づいて合致す
る領域全ての番号を候補Pに置く。
The maximum and minimum of the α value of each part on both the A and B screens are obtained, and for each part on the A screen, the area on the B screen having an α value overlapping the maximum and minimum range of the α value is obtained. All the numbers are obtained, and among these areas, the numbers of all the areas that match the distribution of the color data of the pixels existing in the area on the screen A based on a predetermined standard are set as candidates P.

【0176】画面A上の画素nが、視点Saから画面Bの
面と平行に通る平面より外側に位置する場合、図3に示
されるように、B画面の対応する画素は、同一α値のli
neB上で、且つ視点Saと画素nを結ぶ線と平行に視点Sb
から引いた直線とlineBの交点より内側に存さなければ
ならない。従って、A画面のある領域が表す撮影対象部
位のB画面における存在領域は、A画面の当該領域の各
α値において最も内側に位置する画素毎にB画面におけ
る存在可能領域を算定し、それらを合わせた画像領域と
なる。従って、この条件を満たさない候補は除外する。
When the pixel n on the screen A is located outside the plane passing from the viewpoint Sa in parallel with the plane of the screen B, the corresponding pixels on the screen B have the same α value as shown in FIG. li
The viewpoint Sb on neB and parallel to the line connecting the viewpoint Sa and the pixel n
Must be inside the intersection of the line drawn from and lineB. Therefore, the existence area on the B screen of the imaging target portion represented by a certain area on the A screen is calculated as the possible area on the B screen for each pixel located at the innermost side in each α value of the area on the A screen. The combined image area is obtained. Therefore, candidates that do not satisfy this condition are excluded.

【0177】0049項〜0053項1)〜6)の条件
を満たすか否かを基準に、領域毎の一対一対応関係を判
別する。候補Pの内、α値の最大値と最小値が共に一致
し、且つ4)の条件を満たす候補が一つに絞られた場
合、この領域の組は一対一対応しているとして、他の候
補は除外する。この場合、各領域において、他方画面の
画素の中に同一色データを持つ画素があるものの割合が
一定値(例えば50%)を越えているものは4)の条件を
満たすものとする。尚、色データが同一と判断する誤差
範囲については、0045項から0048項に述べたと
おりである。これら一対一対応した領域は、他の領域の
候補Pから除外される。
The one-to-one correspondence for each region is determined based on whether or not the conditions of items 0049 to 0053 1) to 6) are satisfied. When the maximum value and the minimum value of the α value coincide with each other among the candidates P and the candidates satisfying the condition of 4) are narrowed down to one, it is determined that the set of the areas corresponds one-to-one, and Exclude candidates. In this case, in each region, the ratio of pixels having the same color data among pixels on the other screen exceeds a certain value (for example, 50%), and the condition of 4) is satisfied. The error range in which the color data is determined to be the same is as described in the paragraphs 0045 to 0048. These one-to-one areas are excluded from other area candidates P.

【0178】この段階で一に絞られた候補のみを持つ部
位は一対一対応が設定できているため、これを元にし
て、その他の部位の一対一対応関係を推定する。004
9項から0053項の1)から6)の条件の内、5つ以
上(無ければ4つ以上)の条件を満たす領域の組を一対
一対応しているものとして、候補Pの他の候補は除外す
る。また、一対一対応させた領域は、他の領域の一対一
対応する候補Pから除外する。候補が複数残っていれ
ば、4)の条件の一致の程度の強いものを選択する。こ
こで一対一対応させた領域を元に、他の領域について再
度同様の操作を繰り返す。これを新たに一対一対応する
領域が見つけられなくなるまで繰り返す。
At this stage, a one-to-one correspondence has been set for a portion having only one candidate, and a one-to-one correspondence relationship between the other portions is estimated based on the one-to-one correspondence. 004
Assuming that a set of regions satisfying five or more (four or more if none) conditions among the conditions of 1) to 6) of items 9 to 0053 are in one-to-one correspondence, the other candidates of candidate P are exclude. In addition, a region that has a one-to-one correspondence is excluded from candidates P that have a one-to-one correspondence with other regions. If a plurality of candidates remain, a candidate having a high degree of matching of the condition of 4) is selected. Here, based on the one-to-one correspondence area, the same operation is repeated for another area. This is repeated until a new one-to-one correspondence area cannot be found.

【0179】さらに一対一対応が完結していない場合、
4)の一致条件を緩やかなものとし、3つ以上の条件を
満たす領域の組を一対一対応しているものとし、同様に
操作を繰り返す。ここまでで一対一対応が成立しない場
合は、片方の画面のみに映し出された領域であると判断
する。
When the one-to-one correspondence is not completed,
The operation is repeated in the same manner, assuming that the matching condition of 4) is loose and that a set of regions satisfying three or more conditions has a one-to-one correspondence. If the one-to-one correspondence has not been established up to this point, it is determined that the area is displayed on only one screen.

【0180】最初に設定した部位分割が適切であれば、
通常は、この段階で大半の部位の一対一対応が成立して
いると考えられる。確認のため、A、B両画面上の各部位
の一対一対応関係をモニター15に表示し、操作者16
がそれを確認し、一対一対応すべき画像領域が残されて
いる場合や誤った一対一対応となっている場合は、それ
を入力操作によって修正することで補完する。
If the initially set part division is appropriate,
Usually, at this stage, it is considered that one-to-one correspondence of most parts is established. For confirmation, the one-to-one correspondence of each part on both the A and B screens is displayed on the monitor 15 and the operator 16
Confirms this, and if an image area that should correspond one-to-one is left or an incorrect one-to-one correspondence, it is complemented by correcting it by an input operation.

【0181】次に、一対一対応している画像領域毎に、
画素単位での対応関係を判別する。発明の実施の形態2
で述べたような条件下で、全ての画素の組み合わせを求
め、対応する画素数が少ない方の画面の画素数が最大と
なり、且つ色データの相違量の総量が最少となる組み合
わせを求めることが、立体データを求めるには最も望ま
しいのであるが、計算量が膨大になるため、ここでは、
より少ない計算量で最適解あるいはそれに近い解を得る
方法の一例を記す。
Next, for each one-to-one image area,
The correspondence in pixel units is determined. Embodiment 2 of the invention
Under the conditions as described in above, it is possible to obtain a combination of all the pixels and obtain a combination in which the number of pixels on the screen having the smaller number of corresponding pixels is the largest and the total amount of the difference amount of the color data is the smallest. , Is most desirable for obtaining three-dimensional data, but because of the huge amount of calculation,
An example of a method for obtaining an optimal solution or a solution close thereto with a smaller amount of calculation will be described.

【0182】画素naとnbが対応するときは、0059項
から0061項の制約条件を満たす。これらの制約条件
の内、、、は各対応する画素の組毎に判別できる
基準であるが、、、は、画素の組相互の比較を行
わなければ判断できない基準である。そこで、まず各画
素毎に、制約条件、、を満たす他方画面の画素を
全て候補Qに置く。こうして得られた単一又は複数の候
補(他方画面の画素)は、色データの最も近いものから
順にQ1、Q2、Q3・・・と並べ替える。尚、3枚の画像を
用いる場合は、0054項から0055項の条件に基づ
き、画素の対応関係の成立可能性を確認でき、この条件
を満たさない候補は排除する。
When the pixels na and nb correspond to each other, the constraints 0059 to 0061 are satisfied. Among these constraint conditions, is a criterion that can be determined for each corresponding pixel set, but is a criterion that cannot be determined unless pixel sets are compared with each other. Therefore, first, all the pixels on the other screen that satisfy the constraint conditions are placed as candidates Q for each pixel. The obtained single or plural candidates (pixels on the other screen) are rearranged as Q1, Q2, Q3,... In order from the closest color data. In the case where three images are used, it is possible to confirm the possibility of establishing a correspondence between pixels based on the conditions of the items 0054 to 0055, and candidates that do not satisfy this condition are excluded.

【0183】A,B両画面の一対一対応する画像領域に
おいては、同一α線上の画素の中で最も色データの近似
した画素の組が2組、両画面においてそれぞれ隣接する
状況は、本来対応すべき画素において最も発生する可能
性が高い、という前提条件を与える。これは、両カメラ
の癖、照明などによって生じる色相のズレを適切に補正
していれば、妥当な前提条件だと思われる。特に、画面
中央など主要な箇所についてはよく当てはまると思われ
る。領域毎に色相を補正する方法も0068項から00
69項に述べているところである。そこで、そうした条
件と0059項から0061項の条件を同時に満たす画
素の組を最も多く得られるような判別操作を行う。
In the image areas corresponding to the screens A and B on a one-to-one basis, two sets of pixels having the closest color data among the pixels on the same α-line, and the situation where they are adjacent to each other in the two screens correspond to the original situation. A precondition is given that the pixel is most likely to occur in the pixel to be processed. This seems to be a reasonable prerequisite if the hue shifts caused by the habits and lighting of the two cameras are properly corrected. In particular, it seems to apply well to major parts such as the center of the screen. The method for correcting the hue for each area is also described from the items 0068 to 00.
This is described in section 69. Therefore, a discriminating operation is performed so as to obtain the maximum number of pixel sets that simultaneously satisfy such conditions and the conditions of 0059 to 0061.

【0184】要素が空である集合を多数用意する。集合
の要素として入るものは、立体空間で隣接関係にあるこ
とを示す、A、B両画面において同時に隣接する、対応す
る画素の組である。以下、周囲にあるとは、ある画素を
取り囲む8画素をいう。各画素とその候補Q1の組み合わ
せにおいて、ある画素nの周囲にある画素mの候補Q1
が、画素nの候補Q1自体であるか、その周囲にあり、且
つ0059項から0061項の条件を満たす場合、こ
れを隣接関係にある可能性が高いとし、その画素の組を
同じ集合W1に含める。候補Q1同士が離れている場合
は、別の集合W2を用意し、画素mとその候補Q1の組
をそれに含める。
A large number of sets whose elements are empty are prepared. Included as elements of the set are sets of corresponding pixels that are simultaneously adjacent in both the A and B screens, indicating that they are in an adjacent relationship in the three-dimensional space. Hereinafter, being around means eight pixels surrounding a certain pixel. In the combination of each pixel and its candidate Q1, the candidate Q1 of the pixel m around a certain pixel n
Is the candidate Q1 of the pixel n itself or in the vicinity thereof and satisfies the conditions of the items 0059 to 0061, it is determined that there is a high possibility that the pixel Q is in an adjacent relationship, and the set of the pixels is included in the same set W1. include. When the candidates Q1 are separated from each other, another set W2 is prepared, and a set of the pixel m and the candidate Q1 is included in the set.

【0185】A、B両画面において、色データでの判別誤
差が無ければ、通常はどの画素も少なくとも2つ以上の
隣接関係にある画素を持つ。従って、このような隣接関
係にある画素の組み合わせは多数存在していることが多
い。全ての画素について順次この操作を繰り返す。それ
までに生成された集合のいずれか一つの集合Wuの一画
素と隣接関係にある可能性が高い場合は、当該画素を集
合Wuに含め、いずれとも隣接関係になかった場合は新
たな集合Wvを生成し、これに含める。Wuを含む複数の
集合の画素と隣接関係にあった場合は、それら複数の集
合全てを併せて全体を一つの集合Wu'とする。これを
A、B両画面の画素において行う。同一画素の組の重複は
排除する。
In each of the screens A and B, if there is no discrimination error in the color data, every pixel usually has at least two or more adjacent pixels. Therefore, many combinations of pixels having such an adjacent relationship often exist. This operation is sequentially repeated for all pixels. If there is a high possibility that the pixel is adjacent to one pixel of one of the sets Wu of the set generated up to that point, the pixel is included in the set Wu. And include it in it. When there is an adjacent relationship with the pixels of a plurality of sets including Wu, all of the plurality of sets are combined into one set Wu '. this
This is performed for the pixels on both the A and B screens. Duplicate sets of identical pixels are eliminated.

【0186】こうして生成される多数の各集合Wu'にお
いて、0059項から0061項、の条件を満たさ
ない画素の組があった場合は、満たさなかった画素の組
それぞれに新たな(複数の)集合Wrを生成し、これと
0059項から0061項、の条件に矛盾しない画
素の組を集合Wu'の中からコピーして各Wrに加える。
Wrに画素の組が加わる度に、この0059項から00
61項、の条件についての判断が繰り返される。
In the many sets Wu 'generated in this way, if there is a set of pixels that do not satisfy the conditions of items 0059 to 0061, a new set (plurality) is set for each of the sets of pixels that do not satisfy the conditions. Wr is generated, and a set of pixels not inconsistent with the conditions of 0059 to 0061 are copied from the set Wu 'and added to each Wr.
Each time a set of pixels is added to Wr, 00
The determination on the condition of 61 is repeated.

【0187】このようにして生成された多数の集合の中
で、最も画素数の多い集合から順に、同一α値の範囲に
おいては0059項から0061項の条件を満たすこと
を前提に、順次一体化して、新たな集合Wu"を生成して
いく。ここで生成された集合Wu"は、A、B両画面の対応
関係を持つ画素の組の集合である。画素を一つしか持た
ない集合であっても同様に取り扱う。
Among the many sets generated in this manner, the sets are sequentially integrated from the set having the largest number of pixels on the premise that the conditions of 0059 to 0061 are satisfied within the range of the same α value. To generate a new set Wu ". The generated set Wu" is a set of sets of pixels having a correspondence relationship between the A and B screens. A set having only one pixel is handled similarly.

【0188】このようにして生成された集合Wu"に入っ
た画素についてはQ2以降の候補は削除する。また、複数
の画素の候補Q1となった画素については、他方画面の集
合Wu"に含まれない全ての画素の候補Qから除外する。
これらの画素と候補Q1の組は、撮影対象の立体データを
表す画素の組であると考えられるが、まだところどころ
穴が開いた状態である。
The pixels in the set Wu "generated in this manner are deleted from the candidates after Q2. Pixels which have become the plurality of pixel candidates Q1 are included in the set Wu" on the other screen. Are excluded from the candidate Q of all the pixels that are not.
A set of these pixels and the candidate Q1 is considered to be a set of pixels representing the stereoscopic data of the imaging target, but some holes are still open.

【0189】次に、こうして求められた対応関係を持つ
画素の組を与条件として、まだ対応関係を持たない画素
の対応付けを行う。対応関係を持てていない画素毎に、
この与条件と0059項から0061項の制約条件を元
に候補Qを絞り直す。α値を画素1個分毎に区切り、同
一α値で区分された対応関係を持てていない単一または
画素毎に、その対応付けの最適化を行う。対応付けされ
ていない画素のそれぞれ両隣が対応付けされている場合
は、解Qnは一つに定まる。同一α値線上に複数並んでい
る場合は、0059項から0061項の制約条件を満た
す組み合わせを全て生成し、その中で最も多くの画素が
対応付けられる組み合わせを選択する。又、この方法と
は別にQ2をQ1に置き換えて、前記与条件を加えて018
3項から0188項を反復してもよい。
Next, using the set of pixels having the corresponding relationship thus obtained as a condition, pixels having no corresponding relationship are associated with each other. For each pixel that has no correspondence,
The candidate Q is narrowed down based on the given condition and the constraint conditions from 0059 to 0061. The α value is divided for each pixel, and the association is optimized for each single pixel or for each pixel that does not have a correspondence divided by the same α value. If both sides of each pixel that are not associated are associated, the solution Qn is determined to be one. When a plurality of lines are arranged on the same α-value line, all combinations satisfying the constraint conditions of the items 0059 to 0061 are generated, and the combination with which the largest number of pixels are associated is selected. Also, apart from this method, Q2 is replaced with Q1, and
Items 3 to 0188 may be repeated.

【0190】対応した画素の組み合わせに基づいて、0
064項から0065項のプロセスに沿って立体データ
を得、テクスチャマッピングを行う。
Based on the combination of the corresponding pixels, 0
The three-dimensional data is obtained according to the processes of the items 064 to 0065, and texture mapping is performed.

【0191】このようにして作成された立体データにお
いて、画素数が有限個であるために十分な解像度を持ち
得なかった場合、例えば小さく写し出された看板の不明
瞭な文字、あるいは本来は平面であるはずの面が微妙な
凹凸を持ってしまう場合などは、別に用意する立体デー
タモデルあるいは画像を用いて、立体データを適宜修正
することにより、より精度の高い立体データを作成す
る。
In the three-dimensional data created in this way, when the resolution is not sufficient because the number of pixels is finite, for example, a small projected unclear character on a signboard or an originally flat surface In the case where a supposed surface has fine irregularities, for example, a three-dimensional data model or image prepared separately is used to appropriately correct the three-dimensional data to create more accurate three-dimensional data.

【0192】撮影対象部位の形状が直方体、円筒形など
境界線で囲まれた部分が平面や単純な曲面で構成されて
いるいることが明確なときは、0035項に示したよう
に、一対一対応した境界線から撮影対象の立体的な境界
線データを作成し、適当な平面、単純曲面を線形ないし
非線形二乗法によって当てはめ、テクスチャマッピング
して、これを立体データとしてもよい。建築物、看板な
ど外部空間においては平面や単純な曲面で構成されてい
る部位が多く存在し、そのような場合は、本項記載の修
正方法がむしろ適切である。
When it is clear that the portion surrounded by the boundary line, such as a rectangular parallelepiped or a cylinder, is formed of a flat surface or a simple curved surface, as shown in item 0035, one-to-one. It is also possible to create three-dimensional boundary data of the photographing target from the corresponding boundary line, apply an appropriate plane or simple curved surface by a linear or nonlinear square method, perform texture mapping, and use this as three-dimensional data. In an external space such as a building or a signboard, there are many parts composed of a flat surface or a simple curved surface. In such a case, the correction method described in this section is rather appropriate.

【0193】対応付けられなかった画素の内、周辺の画
素が他方画面に対応する画素を有し、且つ色データが全
くことなるとき、これは片方の視点からしか見えない位
置にある折り込み模様、あるいは微細な凹部である可能
性が高い。立体データが作成された段階で、このような
片方の画面にしかない色データを持つ画素については、
その画素の座標と視点を結ぶ延長線上で、他方の視線か
らは不可視領域となる位置の内、最も浅い位置を立体デ
ータとして与え、立体データを修正してもよい。
When the peripheral pixels among the uncorrelated pixels have pixels corresponding to the other screen, and the color data is completely different, this means that the folding pattern is located at a position that can be seen only from one viewpoint. Alternatively, it is highly possible that the concave portion is a fine concave portion. At the stage when the three-dimensional data is created, for pixels having color data that can only be found on one screen,
On the extension line connecting the coordinates of the pixel and the viewpoint, the shallowest position among the positions invisible from the other line of sight may be given as three-dimensional data, and the three-dimensional data may be corrected.

【0194】実施例3.同一撮影対象を撮影した複数の
画像における複数の点を対応させることによって画面と
視点の位置関係を定める実施例を記す。この実施例で
は、図1におけるカメラA10、カメラB12は、一台
のカメラで同一撮影対象を異なる視点から撮影した画像
A、画像Bと読み替える。尚、スリット光源11,地図
データ17,基準となる枠18,GPS19はこの場合
は不要である。
Embodiment 3 FIG. An embodiment will be described in which the positional relationship between the screen and the viewpoint is determined by associating a plurality of points in a plurality of images obtained by shooting the same shooting target. In this embodiment, the cameras A10 and B12 in FIG. 1 are replaced with images A and B obtained by photographing the same photographing target from different viewpoints with one camera. The slit light source 11, the map data 17, the reference frame 18, and the GPS 19 are unnecessary in this case.

【0195】2枚の画像を画像記憶領域13に読み込
む。操作者16は2枚の画像において対応付ける3点
(画素)をマウスなどを用いてモニター15上で指定
し、0196項から0200項記載の方法ないしその他
の方法によって、2枚の画面が同一座標系に置かれ、3
点の座標と7変数(ないし8変数ないし14変数)の初
期値が求められる。0175項から0180項のプロセ
スによって画像領域の一対一対応関係が決定されると、
α値の最大値、最小値の一致などによって、両画面での
対応関係が定まった画素の組、5組(ないし8組)が自
動的に定められる。
The two images are read into the image storage area 13. The operator 16 designates three points (pixels) to be associated with the two images on the monitor 15 using a mouse or the like, and the two screens are displayed in the same coordinate system by the method described in paragraphs 0196 to 0200 or another method. Put on 3
The coordinates of the point and the initial values of 7 variables (or 8 to 14 variables) are obtained. When the one-to-one correspondence between the image areas is determined by the process of the paragraphs 0175 to 0180,
Based on the coincidence of the maximum value and the minimum value of the α value, five sets (or eight sets) of pixels in which the correspondence between the two screens is determined are automatically determined.

【0196】初期値を自動的に設定するプロセスを記
す。画像は、画面横の中心線がほぼ水平になるよう、即
ち平面H=0にほぼ水平になるよう撮影されるものとす
る。航空写真などから立体データを作成する場合は、以
下のとおり。3点の内、H座標の近い2点、2組をP1
(X1、Y1、H1)、P2(X2、Y2、H2)、P2とP3(X3、Y3、H
3)として、これを写し出す画素n1(V1、Z1)とn2(V2、Z
2)、n2とn3(V3、Z3)において、n1とn2を結ぶ直線が
Z軸と交差する点をn4(0、Z4)、n2とn3を結ぶ直線
がZ軸と交差する点をn5(0、Z5)とおく。
A process for automatically setting the initial value will be described. The image is taken such that the center line on the side of the screen is substantially horizontal, that is, substantially horizontal on the plane H = 0. When creating 3D data from aerial photographs, etc., it is as follows. Of the three points, two points near the H coordinate, two pairs are P1
(X1, Y1, H1), P2 (X2, Y2, H2), P2 and P3 (X3, Y3, H
3) as pixels n1 (V1, Z1) and n2 (V2, Z1)
2) In n2 and n3 (V3, Z3), the point at which the line connecting n1 and n2 intersects the Z axis is n4 (0, Z4), and the point at which the line connecting n2 and n3 intersects the Z axis is n5 ( 0, Z5).

【0197】[0197]

【数4】 (Equation 4)

【0198】点P6が点P6'(0、0、H6)となるよう、
点P1、P2、P3をH座標を変えず平行移動する。さら
にH軸を軸として、点P4、点P5が点P4'(0、Y4'、H
4)、点P5'(0、Y5'、H5)となり、点P1'、P2'、P3'
が左右一致するよう回転移動させ、点P1'(X1'、Y1'、H
1')、点P2'(X2'、Y2'、H2')、点P3'(X3'、Y3'、H3')
を得る。
The point P6 becomes a point P6 '(0, 0, H6).
The points P1, P2, and P3 are translated without changing the H coordinate. Further, with the H axis as an axis, points P4 and P5 are point P4 '(0, Y4', H
4), point P5 '(0, Y5', H5), and points P1 ', P2', P3 '
Are rotated so that the left and right coincide with each other, and the point P1 '(X1', Y1 ', H
1 '), point P2' (X2 ', Y2', H2 '), point P3' (X3 ', Y3', H3 ')
Get.

【0199】実施例5に後述するような外部空間を撮影
した場合は、判明している3点と視点の座標を、先の点
P6と視点を結ん線をY軸、地表面を平面H=0とする
座標系に変換する。以上の方法で、視点から見てY軸と
Z軸がほぼ同一平面に位置し、V軸が平面H=0にほぼ
水平になるように座標系が変換され、0074項から0
077項記載の方法で(Xs、Ys、Zs)、θを算出し、7
変数の初期値を導く。
In the case of photographing an external space as described later in the fifth embodiment, the coordinates of the three known points and the viewpoint are represented by the Y-axis, the line connecting the point P6 and the viewpoint, and the ground surface is represented by the plane H = Convert to a coordinate system with 0. By the above method, the coordinate system is converted such that the Y axis and the Z axis are located on substantially the same plane and the V axis is substantially horizontal to the plane H = 0 when viewed from the viewpoint.
(Xs, Ys, Zs) was calculated by the method described in Item 077, and
Derive initial values of variables.

【0200】室内空間を撮影した場合は、「立体データ
作成方法」に基づいて基本構図を求めて画面、視点の位
置を決定する、あるいは一の画像から作成された基本構
図上に任意の3点の座標を定め、外部空間と同様の方法
によって画面、視点の位置を決定する。尚、大凡の撮影
地点、方向を記録しておき、それらから7変数の初期値
を推定して定めてもよい。あるいは、モニター15上で
操作者16が画面に位置をマウス等で修正して初期値設
定を行ってもよい。
When the indoor space is photographed, the basic composition is obtained based on the “stereoscopic data creation method” to determine the position of the screen and the viewpoint, or any three points on the basic composition created from one image. Are determined, and the positions of the screen and the viewpoint are determined in the same manner as in the external space. It is also possible to record approximate shooting points and directions and estimate and determine the initial values of seven variables from them. Alternatively, the operator 16 may correct the position on the screen with the mouse or the like on the monitor 15 and set the initial value.

【0201】最初に、座標が既知の3点の撮影対象点を
写し出した3画素と、A、B両画面で対応すると判断され
る2画素の計5点を写し出した画像2枚を用いて、座標
と画面、視点の位置関係を求める実施例を記す。画面上
の座標が判明している3点を用い、各画面毎にV軸とX
軸が平行し、Y軸とZ軸が同一平面に位置するよう推定
して、前記3点の座標を変換し、0074項から007
7項の算式によって撮影対象点の座標と画像上の視点の
位置(座標)を求め、それらを同一の座標系(X、Y、
H)に置いて14変数の近似値を得、これを初期値とす
る。
First, by using two images which show a total of five points, three pixels showing three shooting target points whose coordinates are known and two pixels judged to correspond on both the A and B screens, An embodiment for obtaining the positional relationship between the coordinates, the screen, and the viewpoint will be described. Using three points whose coordinates on the screen are known, the V axis and X
Assuming that the axes are parallel and the Y axis and the Z axis are located on the same plane, the coordinates of the three points are transformed, and
The coordinates of the shooting target point and the position (coordinates) of the viewpoint on the image are obtained by the equation of item 7, and are obtained by using the same coordinate system (X, Y,
In H), an approximate value of 14 variables is obtained, and this is used as an initial value.

【0202】変数の数は0080項から0083項のと
おり14個であるが、A、B両画面において、それぞれ3
点の撮影対象点と視点、画素が同一線上に並ぶことによ
り12の条件式が得られ、その他のA、B2画面で対応す
る画素2組において2つの条件式が得られ、これらがそ
れぞれ独立しているため、解は求められる。
The number of variables is 14 as shown in items 0080 to 0083.
Twelve conditional expressions are obtained by arranging the point to be photographed, the viewpoint, and the pixel on the same line, and two conditional expressions are obtained in the other two sets of pixels corresponding to the A and B2 screens. The solution is sought.

【0203】近似解の妥当性を評価する対象は、撮影対
象点の座標が判明している画素については、|Ym−Ymp"
|/(視点pと撮影対象点mの距離)とし、(但し、m=
1、2、3、p=a又はb、Ymp"は視点と画素mpを結ぶ線の延
長線上のX=Xm、H=Hm(m=1、2、3)におけるY座
標)対応関係のみ定めた画素においては、各画素の組毎
に、A画面の画素maのα値をtanθam、B画面の画素mbの
α値をtanθbmとした場合の|θam−θbm|、m=4、5とす
る。
The target for evaluating the validity of the approximate solution is | Ym−Ymp ”for pixels for which the coordinates of the shooting target point are known.
| / (Distance between viewpoint p and shooting target point m) (where m =
1, 2, 3, p = a or b, Ymp "defines only the correspondence relationship between X = Xm and H = Hm (Y coordinate in m = 1, 2, 3) on the extension of the line connecting the viewpoint and the pixel mp. For each pixel set, | αam−θbm |, m = 4, 5 when the α value of the pixel ma on the A screen is tan θam and the α value of the pixel mb on the B screen is tanθbm for each pixel set .

【0204】そこで、この14条件式における近似解の
妥当性を確認する評価式は、MAX[ |θam−θbm|、m
=4、5、 |Ym−Ymp"|/(視点pと撮影対象点mの距
離)m=1、2、3 、p=a又はb]とする。座標が既知の4
撮影対象点を写していれば、16条件式が得られ解が求
まる。
Therefore, the evaluation formula for confirming the validity of the approximate solution in these 14 conditional expressions is MAX [| θam−θbm |, m
= 4,5, | Ym-Ymp "| / (distance between viewpoint p and shooting target point m) m = 1, 2, 3, p = a or b].
If the photographing target point is photographed, 16 conditional expressions are obtained and a solution is obtained.

【0205】撮影対象の座標が不明ではあるが、A、B2
画面で対応することが確認できた8組の画素から画面の
相対的な位置関係を求める実施例を記す。画面上の任意
の3点を用い、その写し出す撮影対象点の座標を任意の
方法で推定し、前項と同様にして初期値を得る。
Although the coordinates of the object to be photographed are unknown, A, B2
An embodiment will be described in which the relative positional relationship of the screen is obtained from eight sets of pixels that have been confirmed to correspond on the screen. Using any three points on the screen, the coordinates of the shooting target point to be projected are estimated by an arbitrary method, and an initial value is obtained in the same manner as in the previous section.

【0206】変数の数は0084項から0086項のと
おり、8個(同一カメラ、同一焦点で撮影した場合は7
個)であり、A、B 2画面で対応する画素8(同7)
組において8(同7)の条件式が得られ、これらがそれ
ぞれ独立しているため、解は求められる。そこで、8
(同7)条件式における近似解の妥当性を確認するする
評価式は、各画素の組毎に、A画面の画素maのα値をta
nθam、B画面の画素mbのα値をtanθbmとした場合の、
MAX[|θam−θbm|、m=1〜8]とする。尚、対応する
画素の組を9組以上得て、画素密度に起因する誤差を低
減させてもよい。(m>8)
As shown in items 0084 to 1986, the number of variables is eight (7 if taken with the same camera and the same focus).
), And the corresponding pixels 8 on the two screens A and B (7)
Since a set of 8 (7) conditional expressions is obtained and they are independent of each other, a solution is obtained. So, 8
(7) An evaluation expression for confirming the validity of the approximate solution in the conditional expression is as follows.
nθam, when the α value of the pixel mb of the screen B is tanθbm,
MAX [| θam−θbm |, m = 1 to 8]. Note that nine or more sets of corresponding pixels may be obtained to reduce errors caused by pixel density. (M> 8)

【0207】前2項のような評価式に基づいて精度の高
い近似解を求める。N元連立方程式の近似解の評価式の
値をもう一つの次元としておくと、適切な評価式であれ
ば、N+1次元空間において、解の周辺は滑らかな曲面
を構成していると考えられる。評価式の値が解では0、
その他の箇所では0を超える正の値をとるように評価式
を設定すると、解周辺の極大値に挟まれた領域に最初の
近似解を設定すれば、各変数に微少変動量を与え、次第
により近い近似解を求めていける。極大値の範囲内の円
滑な曲面であれば、常により0に近づく近似解を周辺に
見つけられる。
A highly accurate approximate solution is obtained based on the evaluation formula as in the preceding two terms. If the value of the evaluation formula of the approximate solution of the N-ary simultaneous equations is set to another dimension, it is considered that the periphery of the solution forms a smooth curved surface in the N + 1-dimensional space if the evaluation formula is appropriate. If the value of the evaluation formula is 0 for the solution,
In other places, if the evaluation formula is set so as to take a positive value exceeding 0, if the first approximate solution is set in the region between the local maximum values around the solution, a slight variation is given to each variable, and An approximate solution closer to can be obtained. If the surface is a smooth surface within the range of the local maximum value, an approximate solution approaching zero can always be found in the vicinity.

【0208】この場合、N個の変数について微少変動量
を加減したN通り各3ケース、全て組み合わせる必要は
ない。各変数に於いて、それぞれの変数のみ微少変動量
を加減した3ケース、(3×N−1)通りのシュミレーシ
ョンを行い、評価式の値が最も0に近づいたケースの変
数のみの値を修正するか、評価式の値が0に近づいた変
数全てを変更するか、評価式の値がより0に近づいた方
を選択する。0に近づく近似解を見つけられない場合
は、微少変動量をさらに小さくして、(3×N−1)通り
のシュミレーションを繰り返し行う。次第に微少変動量
を小さくしていくことで、より望ましい近似解を求めら
れる。微少変動量が画素の粗さに起因する誤差範囲に収
まれば、計算は終了する。
In this case, it is not necessary to combine all three cases for each of the N variables by adjusting the minute fluctuation amount. For each variable, perform 3 cases of (3 × N-1) simulations in which the amount of minute fluctuation is adjusted only for each variable, and correct the values of only the variables in the case where the value of the evaluation formula approaches 0 most. Or change all variables for which the value of the evaluation expression has approached 0, or select the one in which the value of the evaluation expression has approached 0. If an approximate solution approaching 0 cannot be found, the amount of small fluctuation is further reduced, and (3 × N−1) simulations are repeated. A more desirable approximate solution can be obtained by gradually reducing the minute fluctuation amount. The calculation ends when the minute variation falls within the error range caused by the pixel roughness.

【0209】微少変動量が画素の粗さに起因する誤差範
囲に収まったにも拘わらず、評価式の値が画素密度に比
して高い場合のみ、先のシュミレーションプロセスを
「(3×Nー1)通り」を「(最大3のN乗ー1)通り」に
読み替えて再度行う。尚、シュミレーションを順次行っ
ていく中で、より0に近づく解が見つかったときは、こ
れを新たな近似解として、再度最大(3のN乗ー1)通り
のシュミレーションを行う。
Only when the value of the evaluation expression is higher than the pixel density despite the fact that the minute fluctuation amount falls within the error range caused by the pixel roughness, the previous simulation process is set to “(3 × N− "1) ways" is read as "(maximum 3N-1) ways" and the processing is performed again. If a solution approaching 0 is found during the simulation, a maximum of (3N-1) simulations is performed again as a new approximate solution.

【0210】この計算プロセスに於いて、0074項か
ら0077項の式は、解から見て極大値より内側に初期
値を設定するために有効である。同様な効果を持つ他の
方法を用いてもよい。この評価式の値が本項の計算プロ
セスによって次第に0に近づいていくのであるが、モニ
ター15上で0042項で言うところのα値が次第に近
づいていく様子を表示し確認してもよい。
In this calculation process, the expressions of the items 0074 to 0077 are effective for setting an initial value inside the local maximum value from the viewpoint of the solution. Other methods having the same effect may be used. Although the value of this evaluation formula gradually approaches 0 by the calculation process of this section, it may be displayed and confirmed on the monitor 15 that the α value referred to in the section 0042 gradually approaches.

【0211】尚、このような数個の画素を同定して画面
と視点の位置を求める方法は、画素密度によって測定誤
差の限界が生じるが、基準となる枠を用いた方法では、
複数の画素から最小二乗法に基づいて消点を求めるた
め、より高い精度を期待でき、スリット光源を用いる場
合などは後者の方法が適する。尚、三角錐など各二線の
交点の相対的な3次元座標が既知となる点を4点以上持
つ形状のものを基準となる枠として用いても良い。
In the method of identifying the several pixels and obtaining the positions of the screen and the viewpoint, the measurement error is limited by the pixel density. However, in the method using the reference frame,
Since the vanishing point is obtained from a plurality of pixels based on the least square method, higher accuracy can be expected. The latter method is suitable when a slit light source is used. Note that a triangular pyramid shape having four or more points at which the relative three-dimensional coordinates of the intersections of the two lines are known may be used as a reference frame.

【0212】航空写真などでは、画素数が有限個である
ことから、作成された立体データの詳細な部位、例えば
小さな家などの精緻な立体データを得ることが困難な場
合も想定される。このような場合、別に作成した当該部
位の立体データを用いれば、地表全体の精緻な立体デー
タを合成することもできる。
In an aerial photograph or the like, since the number of pixels is finite, it may be difficult to obtain detailed parts of the created three-dimensional data, for example, fine three-dimensional data of a small house or the like. In such a case, the use of the separately created three-dimensional data of the relevant part makes it possible to synthesize precise three-dimensional data of the entire ground surface.

【0213】実施例4.街並みの立体データを作成する
実施例を記す。立体データを作成しようとする街並み
の、建物、看板その他の各部位が全て撮影されるよう、
街並みを多数の地点から撮影する。このとき、立体デー
タ化する部位は、位置の異なる3点、少なくとも2点か
ら撮影されるよう、撮影箇所、撮影枚数を定める。
Embodiment 4 FIG. An example in which three-dimensional data of a street is created will be described. Buildings, signboards, and other parts of the city where you want to create 3D data are all captured,
The cityscape is photographed from many points. At this time, for the part to be converted into three-dimensional data, the shooting location and the number of shots are determined so that shooting is performed from three points at different positions, at least two points.

【0214】撮影時の姿勢は、カメラが(仰角は任意で
あるが)左右水平になるようにする。撮影地点データを
GPSや地図などを用いて記録し、撮影時刻データも記
録する。同時に、画像データにも撮影時刻データを記録
する。地図データ17に、撮影を行う地域の電子データ
化された地図データを保存しておく。
The photographing posture is such that the camera is horizontally horizontal (although the elevation angle is arbitrary). The photographing point data is recorded using a GPS or a map, and the photographing time data is also recorded. At the same time, shooting time data is recorded in the image data. The map data 17 is stored in the form of electronic map data of a region where a photograph is to be taken.

【0215】街並みの撮影を全て終了し、画像データと
撮影地点データ、撮影時刻データを記憶領域13に保存
すると、コンピュータ14では、撮影時刻データによっ
て撮影地点データと画像データの一対一対応関係を判別
し、その撮影地点及び画像との一対一対応関係を地図デ
ータ17に追加して保存する。尚、撮影する度に画像デ
ータと撮影地点データが一体化されて無線などによって
記憶領域13、地図データ17に保存されるようにして
おいてもよい。
[0215] When all the photographing of the street is completed and the image data, photographing point data and photographing time data are stored in the storage area 13, the computer 14 determines the one-to-one correspondence between the photographing point data and the image data based on the photographing time data. Then, the one-to-one correspondence between the photographing point and the image is added to the map data 17 and stored. It should be noted that the image data and the photographing point data may be integrated and stored in the storage area 13 and the map data 17 by radio or the like every time a photograph is taken.

【0216】操作者16はモニター15上で立体データ
化する同一撮影対象を写した複数の画像を選択すると、
前記画像を撮影した地点周辺の地図データが地図データ
17から呼び出され、モニター15上に表示される。操
作者16は、一の画像と地図それぞれに、座標を得たい
3点をマウスなどを用いて指定(入力)する。これによ
って、前記3点と視点のX、Y座標が求まる。
When the operator 16 selects a plurality of images of the same object to be converted into three-dimensional data on the monitor 15,
Map data around the point where the image was captured is called from the map data 17 and displayed on the monitor 15. The operator 16 specifies (inputs) three points for which coordinates are to be obtained for each of the one image and the map using a mouse or the like. Thus, the X and Y coordinates of the three points and the viewpoint are obtained.

【0217】さらに操作者16は、前記3点の大凡のH
座標と撮影者の身長を入力する。座標を得る3点は、建
物などの角などから選択し、H座標は例えばビルであれ
ば1階の階高5m、2階以上4mというように大凡の見
当をつけて入力する。視点のH座標は地表+1.5mとし
てもよい。以上の操作を行うと、コンピュータ16では
実施例2及び3によって、撮影対象の立体データを作成
する。尚、実施例2及び3に依らず、本発明に記載した
いずれの立体データ作成方法、あるいは「立体データ作
成方法」、実施例6など、その他の方法を用いてもよ
い。
Further, the operator 16 sets the approximate H of the three points.
Enter the coordinates and the height of the photographer. The three points for obtaining the coordinates are selected from the corners of a building or the like, and the H coordinates are input with a rough guide, for example, the height of the first floor is 5 m and the second floor is 4 m or more in the case of a building. The H coordinate of the viewpoint may be +1.5 m on the ground. When the above operation is performed, the computer 16 creates three-dimensional data of the imaging target according to the second and third embodiments. Note that regardless of the second and third embodiments, any of the three-dimensional data creation methods described in the present invention, or other methods such as the “three-dimensional data creation method” and the sixth embodiment may be used.

【0218】コンピュータ14は、同一撮影対象を写し
た、各複数の画像から実施例2及び3のプロセスによっ
て作成された立体データ全部を合成し、街並み全体の立
体データを完成する。立体データの合成に当たっては、
地図データ17の座標を基準に大きさを整合させるか、
あるいは隣接する立体データの重なる部分の同一箇所の
長さを同一として整合させる。
The computer 14 combines all of the three-dimensional data created by the processes of the second and third embodiments from the plurality of images of the same object to be photographed, and completes the three-dimensional data of the entire cityscape. In synthesizing 3D data,
Whether to match the size based on the coordinates of the map data 17,
Alternatively, matching is performed with the same length of the same portion of the overlapping portion of the adjacent three-dimensional data.

【0219】外部空間に於いては、人、車など移動して
いる物が多く、異なる視点から異なる時刻に同一撮影対
象を撮影した場合、一方の画面にしか写し出されない画
像領域が複数あることがある。この場合、その人、車な
どの影になった部位も他方画面にしか写し出されていな
い。このような場合は、人、車など移動している物を写
し出した画像領域を対話型の装置によってモニター上で
指定し、3枚以上の画像の内、その影になった部分を共
通して写し出す画面の組から立体データを作成する。
[0219] In the external space, there are many moving objects such as people and cars, and when photographing the same subject from different viewpoints at different times, there are a plurality of image areas that are displayed only on one screen. There is. In this case, the shadowed part of the person, the car, or the like is also displayed only on the other screen. In such a case, an image area showing a moving object such as a person or a car is designated on a monitor by an interactive device, and a shadowed portion of three or more images is commonly used. Create 3D data from a set of screens to be projected.

【0220】ガラス窓など光を反射する箇所について
は、異なる視点から撮影した画像からでは、それぞれ異
なる撮影対象を写し出すものとして捉えられてしまう。
そこでガラス面のような反射面については、操作者16
がモニター上で該当する画像領域について反射面である
ことを入力する必要がある。(当該画像領域の画素並び
に当該立体データの各点に反射面である記号を与え
る。)この場合は、平面等の立体形状を与え、当該領域
の境界線からその位置を確定させる。立体データから画
像を作製する場合は、視点から当該反射面に反射した視
線の当たる立体データの色データを各反射面の色データ
として画像を得る。
[0220] A portion that reflects light, such as a glass window, is perceived as different objects to be photographed from images photographed from different viewpoints.
Therefore, for a reflection surface such as a glass surface, the operator 16
Needs to be input as a reflection surface for the corresponding image area on the monitor. (A symbol that is a reflection surface is given to each pixel of the image area and each point of the three-dimensional data.) In this case, a three-dimensional shape such as a plane is given, and the position is determined from the boundary line of the area. When an image is created from three-dimensional data, an image is obtained using color data of three-dimensional data corresponding to a line of sight reflected on the reflection surface from a viewpoint as color data of each reflection surface.

【0221】実施例5.端末側に於いて入力した複数の
画像データを通信ネットワークを介してサーバ側に送信
し、サーバ側で立体データを作成し、あるいは複数の画
面を同一座標系に置いた画面と視点の位置情報を解析
し、同じく通信ネットワークを介して端末側に送信し戻
す実施例を記す。
Embodiment 5 FIG. The terminal transmits a plurality of image data input to the server via the communication network to the server side, creates three-dimensional data on the server side, or obtains position information of a screen and a viewpoint in which a plurality of screens are placed in the same coordinate system. An embodiment will be described in which analysis is performed and the data is transmitted back to the terminal via the communication network.

【0222】利用者が撮影した、室内や屋外の同一撮影
対象を位置の異なる地点から撮影した複数画像を端末に
入力する。端末は通信ネットワークを介して、これをサ
ーバ側に送信する。尚、この場合の通信ネットワークと
しては、インターネットの他、デジタル放送、携帯端末
のデータ通信などどのようなネットワークを用いても良
い。
A user inputs a plurality of images of the same object to be photographed indoors or outdoors from different points in the room. The terminal transmits this to the server via the communication network. As a communication network in this case, any network such as digital broadcasting and data communication of a portable terminal may be used other than the Internet.

【0223】サーバは受信した画像データに基づき、実
施例2,実施例3あるいは実施例6、のプロセスあるい
は「立体データ作成方法」、その他の方法によって撮影
対象空間の立体データを作成し、あるいは複数の画面を
同一座標系に置いた画面と視点の位置情報データを生成
する。サーバ側は、作成した立体データないし生成した
位置情報データを通信ネットワークを介して端末側に送
信し戻す。端末側は、受信した立体データから、利用者
の入力した任意の視点、視線方向に基づき作成するシュ
ミレーション画像をモニターに表示する、あるいは受信
した位置情報データから立体データを作成する。
Based on the received image data, the server creates three-dimensional data of the space to be photographed by the process of the second, third, or sixth embodiment or the “three-dimensional data creation method” or other methods. Then, the position information data of the screen and the viewpoint in which the screen is placed in the same coordinate system is generated. The server sends the created three-dimensional data or the generated position information data back to the terminal via the communication network. The terminal displays, on the monitor, a simulation image created based on an arbitrary viewpoint and line of sight input by the user from the received stereoscopic data, or creates stereoscopic data from the received position information data.

【0224】利用者は、シュミレーションを行うため
に、自分が見たいと思う視点と視線方向に関する情報、
取り替えて見たいと思う部位と取り替える商品等に関す
る情報を0221項の画像データ送信時に、同時に通信
ネットワークを介してサーバ側に送信してもよい。この
場合は、サーバ側は指定された視点、視線方向の情報に
基づいて立体データから画像を作成し、当該画像を端末
側に送る。あるいは、取り替える部位だけの立体データ
を指定された商品等の立体データモデルに置き換えた立
体データ、画像データを端末側に送信し戻す。
In order to perform the simulation, the user needs to obtain information on the viewpoint and gaze direction that he / she wants to see,
At the time of transmitting the image data of item 0221, the information regarding the part to be replaced and the part to be replaced may be transmitted to the server via the communication network at the same time. In this case, the server creates an image from the three-dimensional data based on the information on the designated viewpoint and line-of-sight direction, and sends the image to the terminal. Alternatively, three-dimensional data and image data obtained by replacing the three-dimensional data of only the part to be replaced with a three-dimensional data model of a designated product or the like are transmitted back to the terminal.

【0225】実施例6.撮影対象表面の1本の直線又は
曲線(以下、単に撮影対象の線という)は、A、B両画
面においても1本の直線又は曲線として写し出される。
A、B両画面の画素が対応する制約条件としては、00
59項から0061項に既述のとおりからまでの6
条件がある。さらに以下のような仮説を与える。
Embodiment 6 FIG. One straight line or curve on the surface of the imaging target (hereinafter, simply referred to as a line of the imaging target) is displayed as one straight line or curve on both the A and B screens.
The constraint conditions corresponding to the pixels on both the A and B screens are 00
6 as described in paragraphs 59 to 0061
There are conditions. Furthermore, the following hypothesis is given.

【0226】「撮影対象の線を端から順にたどった場
合、この線の彩度、明度の変化はA、B両画面に写し出
された線に反映される。撮影対象の線を構成する微細領
域の極大値、極小値は、これを写し出すA、B両画面の
直線又は曲線上の画素の色データにおいても彩度、明度
の極大値、極小値として写し出されているはずである。
従って、A、B両画面における線上の彩度ないし明度の
極大値あるいは極小値を色データとして有する画素同士
で対応付けすることができる。色データが急激に変化し
ているところも同様に、その境界に接する画素同士で対
応付けすることができる。」(こうした状態にある画素
を以下、単に特異点という。)
"If the line to be photographed is traced sequentially from the end, the change in the saturation and brightness of this line is reflected in the lines projected on both the A and B screens. The fine area constituting the line to be photographed The maximum value and the minimum value should be captured as the maximum value and the minimum value of the saturation and lightness in the color data of the pixels on the straight line or the curve of both the A and B screens.
Therefore, it is possible to associate the pixels having the maximum value or the minimum value of the saturation or brightness on the line in both the A and B screens with the color data. Similarly, a portion where the color data changes abruptly can be associated with the pixels adjacent to the boundary. (A pixel in such a state is hereinafter simply referred to as a singular point.)

【0227】ここで特異点の定義は次の、、いず
れかの条件を満たすものとする。 同一α値線上でPj-1、Pj、Pj+1と並ぶ任意の3画素
において、画素Pjの彩度(ないし明度)の値がPj-1、Pj
+1両画素の彩度(ないし明度)より高い場合、あるいは
低い場合、この画素Pjを極大値ないし極小値を持つ画素
(特異点)とする。 同一α値線上でPj-1、Pj、Pj+1と並ぶ任意の3画素
において、画素Pjの彩度(ないし明度)の値がPj-1、Pj
+1いずれかの画素の彩度(ないし明度)と一定基準以上
異なる場合、この画素Pjを特異点とする。(図8参照)
Here, it is assumed that the definition of the singular point satisfies one of the following conditions. For any three pixels lined up with Pj-1, Pj, and Pj + 1 on the same α-value line, the saturation (or lightness) value of pixel Pj is Pj-1, Pj
+1 If the saturation (or brightness) of both pixels is higher or lower, this pixel Pj has a maximum or minimum value
(Singular point). For any three pixels lined up with Pj-1, Pj, and Pj + 1 on the same α-value line, the saturation (or lightness) value of pixel Pj is Pj-1, Pj
When the saturation (or brightness) of any one of the pixels is different from the saturation (or brightness) by a certain reference or more, this pixel Pj is set as a singular point. (See Fig. 8)

【0228】 同一α値線上の両端の画素も特異点と
する。 尚、上記で言うところの線は、画面上で視覚的に認識で
きる線である必要はなく、撮影対象表面に任意に引いた
線でかまわない。一般にA画面の任意の線に一対一対応
する線をB画面上で特定することはできないが、同一平
面Y=αX上のlineA、lineBを考えると、lineB上の画
素はlineA上の画素に対応しているため、同一平面Y=
αX上のlineA、lineB上に存する画素について先の特異
点を利用して対応させることができる。これにより限ら
れた画素数での対応付けが可能となり、計算量を大幅に
減少させることが可能となる。
Pixels at both ends on the same α-value line are also singular points. Note that the above-mentioned line does not need to be a line that can be visually recognized on the screen, and may be a line arbitrarily drawn on the surface of the imaging target. Generally, it is not possible to specify a line corresponding to an arbitrary line on the screen A on a one-to-one basis on the screen B. However, considering lineA and lineB on the same plane Y = αX, pixels on lineB correspond to pixels on lineA. The same plane Y =
Pixels on lineA and lineB on αX can be made to correspond using the above-mentioned singularity. This makes it possible to perform association with a limited number of pixels, and it is possible to greatly reduce the amount of calculation.

【0229】尚、先の仮説は極めて当然な仮説ではある
が、撮影対象表面が画素密度に比して極めて微細な模様
を持つような場合は、各画素が撮影対象をそこまで精緻
に映し出せないため、特異点の対応が全部はうまくなさ
れない場合があり得る。この場合でも、「対応付けされ
た画素の組数が最も多い組み合わせが、求めるべき画素
の対応付けである」という仮説を置く。更に、各α値で
上記対応付けを反復して行った後、画面上縦の線分での
対応関係の整合性を確認し、制約条件を満たしていない
箇所について修正することで、精緻な対応付けを可能と
する。この方法についても後述する。
Although the above hypothesis is a very natural hypothesis, if the surface of the object to be photographed has an extremely fine pattern compared to the pixel density, each pixel can project the object to be photographed so precisely. Therefore, the singularity may not be completely corresponded. Also in this case, a hypothesis is set that “the combination with the largest number of associated pixels is the association of the pixel to be obtained”. Furthermore, after repeatedly performing the above-mentioned association for each α value, the consistency of the correspondence relationship in the vertical line segment on the screen is checked, and a correction is made for a portion that does not satisfy the constraint condition, thereby providing a precise correspondence. Can be attached. This method will also be described later.

【0230】以下は、一対一対応する画像領域Ta、Tb
について記す。尚、対応付けされた画素の組の集合WW
lv等、画素の集合Wajl、Wblu(u=1,2,・・・・)等は要
素(画素の組ないし画素)に順序関係が与えられた集合
である。a、bはA、B各画面上の画素の集合であること
を表す。各画素固有のデータとして、特異点であること
を示す指標fs、fm(0〜4の整数、初期値は全て0)を
持つ。
The following describes the image areas Ta and Tb corresponding one-to-one.
Is described. Note that a set WW of a set of pixels associated with each other
A set of pixels Wajl, Wblu (u = 1, 2,...) such as lv is a set in which elements (a set of pixels or pixels) have an order relationship. a and b represent a set of pixels on each of the screens A and B. As data unique to each pixel, there are indices fs and fm (integers from 0 to 4; initial values are all 0) indicating a singular point.

【0231】画像領域Tbの最もZ軸側で画素1個分だ
け変わるように同一α値線のα値を変えていくと、隣接
する2本の同一α値線に挟まれた領域に於いては、Z軸
側では画素が1個ずつ並んでいるが、Z軸から見て奧に
行くほど(X座標の値が大きいほど)、縦に(近似した
β値の範囲で)画素が2個程度並ぶ箇所が増えてくる。
A、B両画面の画像領域Ta、Tbにおいて、一般には右側
同士及び左側同士が対応しているため、画面BのZ軸側
の画素1個に対し、画面Aの奧の画素2個が対応し、画
面AのZ軸側の画素1個に対し、画面Bの奧の画素2個が
対応するといった状況も多く発生する。
When the α value of the same α-value line is changed so as to change by one pixel on the Z-axis side of the image area Tb, the area between two adjacent same α-value lines is changed. Means that pixels are arranged one by one on the Z-axis side, but two pixels vertically (within a range of approximate β value) as it goes farther from the Z-axis (the larger the value of the X coordinate). More and more places are lined up.
In the image areas Ta and Tb of both the A and B screens, the right and left sides generally correspond to each other, so that one pixel on the Z-axis side of the screen B corresponds to two pixels at the back of the screen A. However, in many cases, two pixels at the back of the screen B correspond to one pixel on the Z-axis side of the screen A.

【0232】そこで以下では「同一α値線上に位置す
る」ことを次のように定義し直す。一方画面の任意の画
素Pbについて、他方画面で同一α値線上に位置する画素
とは、画素Pbのα値と一定範囲内の差違のα値を持つ画
素である。同一α値の範囲内で且つβ値が一定以内の範
囲内に複数の画素が存在しているときは、画素Pbのα値
により近い画素を同一α値線上に位置する画素とす
る。」
Therefore, hereinafter, "located on the same α value line" is redefined as follows. With respect to an arbitrary pixel Pb on one screen, a pixel located on the same α-value line on the other screen is a pixel having an α value different from the α value of the pixel Pb within a certain range. When there are a plurality of pixels within the range of the same α value and within the range of the β value within a certain range, a pixel closer to the α value of the pixel Pb is determined as a pixel located on the same α value line. "

【0233】 画面Bの画像領域Tbにおける同一α線
値上の画素を一列、左から順にP1〜Pnとして抽出する。
これらの画素は、集合Wbl(lはα値毎の添え字)に置か
れる。 Pj-1、Pj、Pj+1と順に並ぶ任意の3画素において、
画素Pjの彩度の値がPj-1、Pj+1両画素の彩度より低い場
合又は高い場合、あるいはPj-1、Pj+1のいずれかと一定
値以上異なる場合、これを特異点として極小値の場合は
fs=1、極大値の場合はfs=2、一定値以上異なる場合
はfs=3とする。(2つ以上の条件を満たす場合はfs=
3とする。)同様に、画素Pjの明度の値がPj-1、Pj+1両
画素の明度より低い場合又は高い場合、あるいはPj-1、
Pj+1のいずれかと一定値以上異なる場合、これを特異点
として、極小値の場合はfm=1、極大値の場合はfm=
2、一定値以上異なる場合はfm=3とする。(2つ以上
の条件を満たす場合はfm=3とする。) この操作によって、特異点のみで対応付けを行えるよう
画素を絞り込む。
[0233] Pixels on the same α-ray value in the image area Tb of the screen B are extracted as P1 to Pn in a row from the left.
These pixels are placed in a set Wbl (1 is a suffix for each α value). In any three pixels arranged in order of Pj-1, Pj, and Pj + 1,
If the saturation value of pixel Pj is lower or higher than the saturation of both Pj-1 and Pj + 1 pixels, or if it differs from Pj-1 or Pj + 1 by a certain value or more, use this as a singular point and minimize it. For values
fs = 1, fs = 2 for a local maximum value, and fs = 3 for a difference of a certain value or more. (If two or more conditions are satisfied, fs =
3 is assumed. Similarly, when the value of the brightness of the pixel Pj is lower or higher than the brightness of both the pixels Pj-1, Pj + 1, or Pj-1,
If it differs from any one of Pj + 1 by a certain value or more, this is set as a singularity. If the minimum value is fm = 1, if the maximum value is fm =
2. If it differs by a certain value or more, fm = 3. (If two or more conditions are satisfied, fm = 3.) By this operation, the pixels are narrowed down so that the association can be performed only with the singular point.

【0234】各特異点Pj毎に、以下の操作を行う。各特
異点Pjと同一α値の画素を画像領域Taから抽出し、左
から順にp1〜pmとし、これらの画素を集合Wajlに置
く。集合Wajlの各画素について、0233項の操作を
行い、fs値、fm値を与える。各集合Wajlの画素の内、
0059項から0061項、の制約条件を満たし、
且つ特異点Pjと同一fs値又は同一fm値となる画素pkを全
て抽出して、特異点Pjの候補Qに置く。0225項から
0229項後段で示したような問題が懸念されるとき
は、0234項においてのみ、同一色データの許容範囲
を大きく取ることによって対処する。
The following operation is performed for each singular point Pj. Pixels having the same α value as each singular point Pj are extracted from the image area Ta, and set to p1 to pm in order from the left, and these pixels are placed in a set Wajl. The operation of item 0233 is performed on each pixel of the set Wajl to give an fs value and an fm value. Of the pixels in each set Wajl,
Satisfy the constraints of 0059 to 0061,
In addition, all the pixels pk having the same fs value or the same fm value as the singular point Pj are extracted and placed in the candidate Q of the singular point Pj. If there is a concern about the problems described in the paragraphs after Sections 0225 to 0229, measures are taken only in Section 0234 by increasing the allowable range of the same color data.

【0235】集合Wblに属する全特異点について各特異
点が含まれる場合と含まれない場合を含め、全ての特異
点の組み合わせについて、特異点の集合Wblu(u=1,2,・
・・・m)を生成する。尚、このように全ての組み合わせ
について集合を生成しても、対象が特異点に限定されて
いるため、その数は通常そう多くはならない。
A set of singularities Wblu (u = 1,2,...) Is obtained for all combinations of singularities, including a case where each singularity is included and a case where each singularity is not included, for all singularities belonging to the set Wbl.
.. M) are generated. Even if a set is generated for all combinations in this way, the number of the set is usually not so large because the target is limited to a singular point.

【0236】各集合Wbluにおいて、集合Wbluに属する
各特異点Pjとその候補Qとなる各画素pkの全ての組み合
わせ(複数の候補と対応する組み合わせを含め)を生成
し、その内0059項から0061項の制約条件を満
たすものだけを対応する可能性のある画素の組の集合W
Wlv(v=1,2,・・・m')として生成する。更に、集合WW
lv(v=1,2,・・・m')の中で、A、B両画面において対応付
けされた特異点paとpb、qaとqbの間に、同一色データの
対応付けされていない特異点を共に有する集合を除外す
る。
In each set Wblu, all combinations (including combinations corresponding to a plurality of candidates) of each singular point Pj belonging to the set Wblu and each pixel pk serving as its candidate Q are generated, and 0059 to 0061 of the combinations are generated. Set W of sets of pixels that may only correspond to those that satisfy the term constraint
It is generated as Wlv (v = 1, 2,..., M ′). Further, the set WW
In lv (v = 1, 2,..., m ′), the same color data is not associated between the singular points pa and pb and qa and qb associated on both screens A and B. Exclude sets that have both singularities.

【0237】0235項から0236項で、同一α値線
上のA、B両画面の特異点の対応付けの可能性のある全組
み合わせが画素の組の集合WWlvとして生成されてい
る。特異点に挟まれた、色データの彩度及び明度が単純
増加又は単純減少となっている単一又は複数の画素(以
下、単に単純増減画素群という)を一つの単位として、
A、B両画面において同一α値線上の単純増減画素群単位
で対応させる。単純増減画素群が対応するための制約条
件は以下のとおりである。
In items 0235 to 0236, all possible combinations of the singular points of both the A and B screens on the same α-value line are generated as a set WWlv of sets of pixels. A single or a plurality of pixels (hereinafter simply referred to as a simple increase / decrease pixel group) in which the saturation and lightness of the color data are simply increased or decreased between the singular points are defined as one unit.
In both the A and B screens, the correspondence is made in simple increment / decrement pixel group units on the same α value line. The constraint conditions for the simple increase / decrease pixel group to correspond are as follows.

【0238】 A、B両画面において対応する特異点pa
とqa、pbとqbに挟まれた単純画素群同士で対応する。 対応する単純画素群は同一色データの画素を持つ。 同一α値線上で、色データの彩度及び明度が共に右
に単純減少又は単純増加となっている。
The corresponding singular point pa on both the A and B screens
And qa, and simple pixel groups sandwiched between pb and qb. The corresponding simple pixel group has pixels of the same color data. On the same α-value line, both the saturation and the brightness of the color data are simply reduced or simply increased to the right.

【0239】例えば図10において、一方の画面にしか
特異点が現れず、他方画面の特異点との対応付けが不可
能な場合でも、その両サイドに存するA、B両画面で対応
付けされる特異点の間において単純画素群を対応付けす
ることができるため、対応付けの可能性は限られた組み
合わせしかありえない。
For example, in FIG. 10, even when a singular point appears only on one screen and it is impossible to associate it with a singular point on the other screen, it is associated with both A and B screens on both sides of the screen. Since a simple pixel group can be associated between singular points, there is only a limited combination of associations.

【0240】例えば図11において、一方の画面Aにし
か見えない箇所があり、画面Aに画面Bの特異点と対応し
ない特異点がある場合でも、同じくA、B両画面の対応す
る特異点に挟まれた単純画素群単位で、限られた組み合
わせにおいて対応付けることができる。各集合WWlv(v
=1,2,・・・m')において、上記、、の制約条件を
満たす単純増減画素群の全ての組み合わせを集合WWwl
v(v=1,2,・・・m")として生成する。
For example, in FIG. 11, even if there is a portion that can be seen only on one screen A and there is a singular point on screen A that does not correspond to the singular point on screen B, It is possible to associate a limited number of combinations in units of the sandwiched simple pixel group. Each set WWlv (v
= 1,2,..., M ′), all combinations of simple increase / decrease pixel groups satisfying the above constraint conditions are set WWwl
Generated as v (v = 1, 2,... m ").

【0241】単純増減画素群単位での対応付けがなされ
れば、各集合WWwlvにおける画素毎の対応付けは、0
059項から0061項により一義的におこなうこと
ができる。この対応付けに於いては、色データの最も近
似した画素の組で対応付けを行うか、あるいは彩度及び
明度の差分を用いて対応付けを行うか、どちらでも、あ
るいは組み合わせて適切と思われる方法を用いてもよ
い。
If the association is made in the unit of the simple increase / decrease pixel group, the association of each pixel in each set WWwlv becomes 0
This can be performed uniquely according to paragraphs 059 to 0061. In this association, it is considered appropriate to perform the association using the set of pixels that are the closest to the color data, or to perform the association using the difference between the saturation and the lightness, or to use either or a combination. A method may be used.

【0242】単純増減画素群単位での画素毎の対応付け
においては、一方の単純増減画素群の一部しか他方画面
の単純増減画素群と対応しない、あるいは全画素が他方
画面の一画素のみと対応するといったこともあり得る。
これは、対応付けさせる単純増減画素群の色データの分
布によって自動的に定まる。尚、全く同一の色データの
画素が連続するような箇所は0058項で予め別途の領
域として対応付けを行っている。
In the correspondence of each pixel in the unit of simple increase / decrease pixel group, only a part of one simple increase / decrease pixel group corresponds to the simple increase / decrease pixel group of the other screen, or all pixels correspond to only one pixel of the other screen. It may be possible to respond.
This is automatically determined by the distribution of the color data of the simple increase / decrease pixel group to be associated. Note that portions where pixels of exactly the same color data continue are associated as separate areas in advance in section 0058.

【0243】各特異点と単純増減画素群の集合WWwlv
について、以上の操作で対応付けしたA、B両画面の同一
α値線上の対応する画素の各組み合わせを新たな集合W
WWlv(v=1,2,・・・m")として生成する。集合WWWlv
(v=1,2,・・・・m")は、0233項で抽出した領域Tb
の同一α値線上の画素と領域Taの対応する可能性のあ
る画素との全ての組み合わせである。計算量を軽減する
ために、この段階で対応する画素数が一定数に満たない
集合WWWlvは除外しても良い。
A set WWwlv of each singular point and a simple increase / decrease pixel group
For each of the combinations of the corresponding pixels on the same α-value line of both the A and B screens
Generate as WWlv (v = 1, 2,... M "). Set WWWlv
(v = 1, 2,... m ") is the region Tb extracted in the 0233 term
Are all combinations of pixels on the same α-value line and pixels that may correspond to the area Ta. In order to reduce the amount of calculation, the set WWWlv whose corresponding number of pixels is less than a certain number may be excluded at this stage.

【0244】0233項から0243項までのプロセス
を画像領域Tbの最もZ軸側で画素1個分だけ変わるよ
うに同一α値線のα値を変えて、画像領域Tb全体につ
いて行い、集合WWWlv(l=1,2,・・・・L、v=1,2,・・
・・m")を得る。さらに0230項に述べたように、領
域Tbには、まだ対応付けされていない画素がある可能
性があるため、それらについて同一α値線上に並んでい
る又は単一の画素毎に、0233項から0243項のプ
ロセスを実行し、集合WWWlv(l=L+1,L+2,・・・・L')
を生成する。以上で、領域Tbの全画素と領域Taの画素
を対応付けする可能性のある組み合わせを全て集合WW
Wlv(l=1,2,・・・・L')として生成した。
The processes from the items 0233 to 0243 are performed on the entire image area Tb by changing the α value of the same α value line so as to change by one pixel on the Z-axis side of the image area Tb, and the set WWWlv ( l = 1,2, ... L, v = 1,2, ...
..M "). Further, as described in item 0230, since there is a possibility that there are pixels that have not yet been associated in the region Tb, they are aligned on the same α-value line or For each pixel of, the process of the terms 0233 to 0243 is executed, and the set WWWlv (l = L + 1, L + 2,... L ′)
Generate As described above, all combinations that may associate all the pixels in the region Tb with the pixels in the region Ta are set WW
Wlv (l = 1, 2,... L ').

【0245】次に、作成される立体データが平面又は円
滑な曲面となるよう0059項から0061項の制約
条件を満たす中で最も対応する画素の組数が多くなる組
み合わせを抽出する。領域Tbの中で、領域Taとα値が
重なる範囲内で、任意の隣接する2本の同一α値線上の
集合WWWlv(l=h,h+1、v=1,2,・・・・m")を抽出
し、その全組み合わせを集合WTvv'(v=1,2,・・・・
n、v'=1,2,・・・・n')として生成する。この際、計算
量を軽減するため、生成された集合の数が少ない箇所を
選択しても良い。
Next, a combination in which the number of corresponding pixels is the largest among those satisfying the constraint conditions of 0059 to 0061 is extracted so that the created three-dimensional data becomes a plane or a smooth curved surface. Within the area Tb, a set WWWlv (l = h, h + 1, v = 1, 2,...) On any two adjacent identical α value lines within a range where the area Ta and the α value overlap. m "), and extracts all the combinations into a set WTvv '(v = 1, 2,...).
n, v ′ = 1, 2,... n ′). At this time, in order to reduce the amount of calculation, a place where the number of generated sets is small may be selected.

【0246】各集合WTvv'について、前記2本の同一
α値線に隣接する、同一α値線上の画素の組の集合WW
Wlv"の中で、0059項から0061項の制約条件
を満たすものを選別し、それが単一であれば集合WTv
v'と併せて集合WTvv'1とし、複数あれば集合WTvv'
に各集合WWWlv"を要素として加えた複数の集合WTv
v'g(g=1,2,・・・)を生成する。
For each set WTvv ′, a set WW of sets of pixels on the same α-value line adjacent to the two same α-value lines
Wlv ", those which satisfy the constraints of 0059 to 0061 are selected, and if they are single, the set WTv
v ′ together with the set WTvv′1, and if there is more than one set WTvv ′
Sets WTv obtained by adding each set WWWlv "to the
Generate v′g (g = 1, 2,...).

【0247】尚、領域Taの中に於いても対応付けされ
ていない画素が残されている場合があることから005
9項から0061項の制約条件の合否を判別できない
ときは、当該対応付けされていない領域Taの画素を領
域Tbの適当な画素と対応させることによって0059
項から0061項の制約条件を満たすことが可能か否
かを判別する。可能な場合は、当該対応付けされていな
かった画素についての新たな対応付けを含めて集合WT
vv'gとする。不可能な場合は除外する。(選別しな
い。)
Incidentally, there is a case where an uncorrelated pixel is left even in the area Ta in some cases.
When it is not possible to determine whether or not the constraint conditions of items 9 to 0061 are satisfied, the pixels of the uncorrelated area Ta are made to correspond to appropriate pixels of the area Tb.
It is determined whether or not it is possible to satisfy the constraint condition of item 0061. If possible, set WT including the new association for the unassociated pixel
vv'g. Exclude if not possible. (Do not sort.)

【0248】以下、次々に隣接する同一α値線上の集合
WWWlv"について同様の操作を行っていき、領域Tb全
部の画素(集合WWWlvの全て)について0059項か
ら0061項の制約条件を満たした対応付けの組み合
わせを複数の集合WTvv'gとして生成する。尚、以上の
操作に於いて、0059項から0061項の制約条件
を厳密に適用すると適合する集合WWWlvが見つからな
い恐れがある場合は、任意の方法で0059項から00
61項の制約条件を緩和してもよい。画面と視点の設
定誤差により対応すべき画素が見つからないために、適
合すべき集合WWWlvが見つからない場合も想定され、
そのような場合は0059項から0061項の制約条
件を満たす画素数が最も多い集合WWWlvを選択するこ
ととしてもよい。
Hereinafter, the same operation is performed for successive sets WWWlv on the same α-value line, and the pixels satisfying the constraints 0059 to 0061 for all the pixels of the region Tb (all of the set WWWlv). In the above operation, if there is a possibility that a set WWWlv that matches when the constraints of items 0059 to 0061 are strictly applied may not be found, an arbitrary combination is generated. From 0059 to 00
You may relax the constraint condition of 61 items. It is also assumed that a set WWWlv to be matched cannot be found because a corresponding pixel is not found due to a setting error between the screen and the viewpoint,
In such a case, the set WWWlv having the largest number of pixels satisfying the constraint conditions of the items 0059 to 0061 may be selected.

【0249】0245項から0248項で生成された集
合WTvv'g(g=1,2,・・・)の内、最も画素の組数の多い
ものを領域TaとTbの対応する画素の組み合わせとす
る。尚、0250項以降の操作で作製された立体データ
が実際の撮影対象と異なる形状のものであった場合は、
操作者16がモニター15に写し出される立体データの
形状から、別の適当な集合WTvv'gを選択する。
Of the sets WTvv'g (g = 1, 2,...) Generated in the terms 0245 to 0248, the set having the largest number of pixels is determined by the combination of the corresponding pixels in the regions Ta and Tb. I do. If the three-dimensional data created by the operation after item 0250 has a shape different from the actual shooting target,
The operator 16 selects another appropriate set WTvv′g from the shape of the three-dimensional data displayed on the monitor 15.

【0250】0230項から0232項で示したよう
に、領域Taの中にはまだ対応付けされていない画素が
残されている可能性がある。0249項で選択された集
合WTvv'gの対応関係を所与として、領域Taの中の対
応付けが行われていない各画素について、0059項か
ら0061項からまでの制約条件を満たすよう、領
域Tbの中の画素と対応付けを行う。
[0250] As shown in items 0230 to 0232, there is a possibility that a pixel that has not yet been associated is left in the area Ta. Given a correspondence relationship of the set WTvv'g selected in the item 0249, the region Tb is set so that the pixels in the region Ta that are not associated with each other satisfy the constraint conditions from the items 0059 to 0061. Are made to correspond to the pixels in.

【0251】候補が複数あり得る場合は、一番色データ
の近似した画素と対応付ける。あるいは同一α値線上で
彩度ないし明度の差分に比例させて対応付けてもよい。
さらに、対応する画素の組全体の中で、0059項から
0061項からまでの全制約条件を満たさない画素
があった場合は(通常はないし)、周囲の画素の対
応関係を崩さない範囲で、より制約条件を満たすことが
できるよう対応関係を微修正する。
When there are a plurality of candidates, they are associated with the pixel having the closest color data. Alternatively, they may be associated with each other on the same α-value line in proportion to the difference in saturation or brightness.
Further, when there is a pixel that does not satisfy all the constraints from the items 0059 to 0061 in the entire set of corresponding pixels (usually not), as long as the correspondence between the surrounding pixels is not broken, The correspondence is finely modified so that the constraint condition can be satisfied more.

【0252】0233項から0252項までのプロセス
で数多くの集合を生成しているが、第一段階では画素の
対応付けを特異点のみで行っており、特異点以外の画素
の対応付けは、それらを挟む特異点の間で単純増減画素
群の対応付けを行い、その上で画素単位で一義的に行っ
ており、さらに各隣接する同一α値線の組み合わせは0
059項の制約条件を満たすものに絞っているため、
計算量は相当に軽減されている。また、生成された集合
は、基本的には0059項から0061項からの制
約条件を満たしており、円滑な曲面を持つ立体データが
生成される。さらに、万が一視覚的に錯覚を起こさせる
ような画像を元に立体データを作製したとしても、操作
者16がモニター15上で適切な集合WTvv'gを選択で
きるようにしており、対処が可能である。
Although a large number of sets are generated by the processes from the items 0233 to 0252, in the first stage, the pixels are associated only with the singular points, and the pixels other than the singular points are associated with each other. , The simple increase / decrease pixel group is associated between the singular points sandwiching the .alpha., And is uniquely performed on a pixel-by-pixel basis.
059
The amount of computation is considerably reduced. Further, the generated set basically satisfies the constraints from the items 0059 to 0061, and three-dimensional data having a smooth curved surface is generated. Furthermore, even in the event that stereoscopic data is created based on an image that causes a visual illusion, the operator 16 can select an appropriate set WTvv'g on the monitor 15, which can be dealt with. is there.

【0253】同一撮影対象を撮影した3枚の画像A、B、
Cを用いれば、より精度を高められる。先に述べたよう
に、A、B両画面において対応する画素の組paとpb、qaと
qbは同一α値線lineA-b(視点Sa、Sb及び画素pa、pb、q
a、qbを通る平面と画面Aの交線。以下、同様。)及びlin
eB-a上に位置する。画素pa、pbと対応する画面C上の画
素pcは、lineC-aとlineC-bの交点に位置する。画素qa、
qbと対応する画面C上の画素qcは、lineC-a、lineC-bと
α値の異なるlineC-a'とlineC-b'の交点に位置する。画
素pbとqbが同一色データであった場合、2画面だけでは
画素paに対応する画素が画素pbかqbか判別できないが、
仮に画素qbを対応する画素だと選択した場合、画面C上
で対応する画素は、画素paに対応するlineC-aと画素qb
に対応するlineC-b'の交点に位置する画素だということ
になる。(図9の□の位置) この交点の画素は、画素pc
とは全く関連の無い画素であり、この色データが画素pa
と異なれば、画素qbの選択は誤りだったことが判明す
る。
[0253] Three images A, B,
If C is used, the accuracy can be further improved. As described above, the corresponding pixel sets pa and pb and qa in both the A and B screens
qb is the same α value line lineA-b (viewpoints Sa, Sb and pixels pa, pb, q
The intersection of plane A and plane A passing through a and qb. The same applies hereinafter. ) And lin
Located on eB-a. Pixel pc on screen C corresponding to pixels pa and pb is located at the intersection of lineC-a and lineC-b. Pixel qa,
The pixel qc on the screen C corresponding to qb is located at the intersection of lineC-a, lineC-b ', and lineC-a' and lineC-b 'having different α values. If the pixels pb and qb have the same color data, it is not possible to determine whether the pixel corresponding to the pixel pa is the pixel pb or qb with only two screens,
If pixel qb is selected as the corresponding pixel, the corresponding pixel on screen C is lineC-a corresponding to pixel pa and pixel qb
Is the pixel located at the intersection of lineCb ′ corresponding to. (Position of □ in FIG. 9) The pixel at this intersection is the pixel pc
Is a pixel that is completely unrelated to the pixel pa.
Otherwise, it turns out that the selection of the pixel qb was incorrect.

【0254】このようにして、3枚以上の画像を用いる
ことで、同一α値線上の画素の中から誤って対応する画
素を選択することをある程度防ぐことができる。特異点
のみの対応関係を判別する場合、特にこうした誤りを避
けることができ、正確な対応付けを行うことが期待でき
る。さらに、画素pa、pbがlineA-c及びlineB-c上でも極
大値等の値を取っていれば、画面C上においても画素pc
は極大値等の値を取る可能性が高く、明確な判別が可能
となる。
In this way, by using three or more images, it is possible to prevent the selection of the corresponding pixel from the pixels on the same α-value line by mistake. In the case of determining the correspondence only of the singular point, such an error can be particularly avoided, and accurate correspondence can be expected. Further, if the pixels pa and pb take values such as the maximum value on the line A-c and the line B-c, the pixel pc on the screen C
Has a high possibility of taking a value such as a maximum value, and a clear distinction can be made.

【0255】同一座標系においた3枚の画面を用いる場
合は、各α値において0233項の候補Qを選別する
際、fs>1ないしfm>1となる画素について、同一α値
線上で同一色データである特異点であっても、以上のよ
うにして整合性を確認し、誤った候補を排除する。これ
によって、0234項における候補Qをより一層絞り込
むことができる。
When three screens in the same coordinate system are used, when selecting the candidate Q of the 0233 item in each α value, pixels having fs> 1 to fm> 1 have the same color on the same α value line. Even for a singular point that is data, the consistency is confirmed as described above, and erroneous candidates are excluded. Thereby, the candidate Q in the item 0234 can be further narrowed down.

【0256】A、B両画面において、照明その他の条件に
よりA、B両画面で対応すべき画素の色データが微妙に異
なっている状況が想定され、その場合は色データの修正
を行う。0234項の特異点の対応付けを行った段階
で、画像領域全体の候補Qとして一画素のみ持つ特異点
において、対応付けされた2個の特異点の色データを比
較し、各対応する画素の組の(画面Aの彩度−画面Bの
彩度)、(画面Aの明度−画面Bの明度)の値の平均値
と標準偏差が統計的に有意な傾向を持っていた場合、そ
の差違の平均値だけ、一方の画面の画素の色データを修
正してもよい。これによって、特異点以外の画素の対応
付けをより正確に行うことができる。
In both A and B screens, it is assumed that the color data of the pixels to be handled in both A and B screens are slightly different due to lighting and other conditions. In such a case, the color data is corrected. At the stage where the singular point of item 0234 is associated, at the singular point having only one pixel as the candidate Q of the entire image area, the color data of the two associated singular points is compared, and the color data of each corresponding pixel is compared. If the average value and the standard deviation of the set (saturation of screen A-saturation of screen B) and (brightness of screen A-brightness of screen B) have a statistically significant tendency, the difference is determined. The color data of the pixels on one screen may be corrected by the average value of. This makes it possible to more accurately associate pixels other than the singular points.

【0257】0256項までの操作で、領域Ta、Tbの
境界線に位置する画素の前部又は一部が対応することが
確認できたときは、この境界線を用いて実施例1に基づ
いて境界線の立体データを作製することもできる。
When it is confirmed that the front or a part of the pixel located at the boundary between the regions Ta and Tb corresponds to the operation up to the item 0256, the boundary is used to perform the processing according to the first embodiment. It is also possible to create three-dimensional data of a boundary line.

【0258】対応付けされた画素から、より少ない計算
量で効率的に精緻な立体データを作成する方法を記す。
対応する画素と視点を結んだ延長線上の交点を三角測量
の原理で求める公知の方法が一般的である。しかしこの
方法では、画素密度が有限であることから、2本の線は
厳密には交差することが少なく、それぞれ最接近点を求
めるとしても計算量が増大してしまう。
[0258] A method for efficiently creating fine stereoscopic data with a smaller amount of calculation from the associated pixels will be described.
A known method is generally used to find an intersection on an extended line connecting a corresponding pixel and a viewpoint by the principle of triangulation. However, in this method, since the pixel density is finite, the two lines rarely intersect strictly, and even if the closest approach point is obtained, the amount of calculation increases.

【0259】A画面において縦に画素が並ぶ任意の直線
と視点Saを結ぶ平面と、そのA画面に直線上に並んだそ
れぞれの画素に対応する画面Bの各画素と視点Sbを結ん
だ各延長線が交差する複数の点を撮影対象の立体データ
の座標とし、それぞれの立体点に該当するB画面の画素
の色データを与える。同様の操作をA、B両画面逆にして
再度行う。このようにして、A、B両画面で対応する画素
の合計数だけ色データと座標を持つ立体点が形成され
る。このような算出方法であれば、計算量は相当に減少
する。
A plane connecting an arbitrary straight line in which pixels are arranged vertically on the screen A to the viewpoint Sa, and each extension connecting a pixel on the screen B corresponding to each pixel arranged in a straight line on the screen A and the viewpoint Sb. A plurality of points at which the lines intersect are used as the coordinates of the three-dimensional data to be captured, and color data of pixels of the B screen corresponding to each of the three-dimensional points is given. Perform the same operation again with the screens A and B reversed. In this way, three-dimensional points having color data and coordinates by the total number of corresponding pixels on both the A and B screens are formed. With such a calculation method, the calculation amount is considerably reduced.

【0260】[0260]

【発明の効果】1)の1本のスリット光源のみを使う方
法により、より簡便な装置で撮影対象の高精度立体デー
タを作成することが可能となる。その結果、試作した
模型を撮影して工業用の金型を作成する、商品の立体
データを作成して、インターネットを用いて、利用者が
指定する任意の角度から商品を見た場合の画像を提示
し、あるいは立体データそのものをインターネットを介
して利用者に配布し、利用者の端末に置かれたアプリケ
ーションによって、商品を動画的に見せ、商品の販売促
進手段とする、数多くの種類の立体データを用意して
おくことで、その組み合わせをシュミレーションし、学
習、ゲームその他多様な用途に供するといったことが可
能となる。衣服などは、モデルやマネキンなどに着せて
立体データを作成し、立体的に訴求できる。
According to the method of 1) using only one slit light source, it is possible to create high-precision stereoscopic data of a photographing object with a simpler apparatus. As a result, the prototype model is photographed to create an industrial mold, the three-dimensional data of the product is created, and an image of the product viewed from an arbitrary angle specified by the user using the Internet is created. Many types of 3D data that are presented or distributed to the user via the Internet, and the application placed on the user's terminal allows the product to be displayed as a moving image and used as a means for promoting the product By preparing, the combination can be simulated and provided for learning, games, and various other uses. Clothes and the like can be modeled or mannequins to create three-dimensional data and appeal three-dimensionally.

【0261】2)の同一撮影対象空間を写した複数の画
像から立体データを作成することで、精度的には1)に
及ばないものの相当に高い精度の立体データが得られ
る。本発明は、画像領域単位での立体データ化を行って
いるため、一部の部位を他の部位に取り替えてみるシュ
ミレーションが容易にでき、従来のCG製作に比して大
幅なコスト低減を図れ、実写画像を用いているためリア
リティが高いという特徴を持つ。
By generating stereoscopic data from a plurality of images of the same photographing target space in 2), stereoscopic data with considerably higher precision, which does not reach 1), can be obtained. In the present invention, since three-dimensional data is converted into image area units, it is possible to easily perform a simulation in which a part is replaced with another part, thereby achieving a significant cost reduction as compared with the conventional CG production. It is characterized by high reality because it uses a real image.

【0262】 立体データ化したバーチャルな撮影対
象空間の中を歩き回るようなバーチャルリアリティを実
現する。実際の町中に並ぶ商店街を歩き、実際の店に入
って買い物をし、商品を任意の角度から見るといったよ
うなインターネット・ショッピングモールも構築でき
る。 調査する場合などに於いて、カメラで写した画像か
ら撮影対象空間を立体データ化して、後で様々な角度か
ら室内をバーチャルリアリティとして見ることで、調査
した現場の検証をよりリアリティをもって行うことが可
能になる。また、現場へ行かなかった人へのプレゼンテ
ーションとしても用いることができる。
[0262] A virtual reality of walking around in a virtual space to be photographed, which is converted into three-dimensional data, is realized. You can also build an Internet shopping mall where you can walk through the shopping streets in the actual town, go into the actual stores, shop, and view the products from any angle. In the case of research, etc., it is possible to convert the shooting target space from the image taken by the camera into three-dimensional data and view the room as virtual reality from various angles later, so that the surveyed site can be verified with more reality. Will be possible. It can also be used as a presentation to those who did not go to the site.

【0263】 利用者個人の自宅の室内を模様替え、
リフォームする場合において、そこにある家具、壁紙な
ど一部の部位を他の商品と取り替えてみた場合をシュミ
レーションでき、どの商品を購入して配すれば、どのよ
うな雰囲気になるかを予め現実感をもって視覚的に把握
することが可能となり、家具、カーテン、壁紙などの建
築資材の販売促進方法として有力な手段となる。こうし
たシュミレーションをインターネットなどでサービスす
ることも可能であるし、CD−ROM、DVD−ROM
などでシュミレーションソフトを配布してもよいし、店
舗内の端末でシュミレーションしてもよい。建物の屋外
から自宅を写し、増改築などのシュミレーションを行う
こともできる。
The interior of the user's personal home is changed
In the case of renovation, it is possible to simulate the case where some parts such as furniture and wallpaper are replaced with other products, and you can realize in advance what kind of atmosphere will be achieved if you purchase and distribute products. This makes it possible to visually grasp it, and it is an effective means for promoting sales of building materials such as furniture, curtains, and wallpaper. Such simulations can be provided on the Internet or the like, and CD-ROM, DVD-ROM
For example, simulation software may be distributed, or simulation may be performed at a terminal in a store. You can also take pictures of your home from the outside of the building and perform simulations such as renovation.

【0264】3)、4)の同一撮影空間を任意に撮影し
た複数の画像から対象空間の立体データを作成するシス
テムによって、大規模建造物や街中の風景など撮影対象
空間を撮影した複数の画像から、撮影対象の立体データ
を作成することができる。 実際に街を歩き回るようなリアリティの高い案内シ
ステムやコンピュータゲームの舞台、背景を作成するこ
とができる。 欧米の街のバーチャルリアリティによる観光案内
や、娯楽としての旅行体験を提供できる。歴史的街並み
の景観をリアリティの高い3Dデータとして保存でき
る。過去の景観写真から街並みをバーチャルに復元する
ことも可能である。
3) 4) A plurality of images obtained by photographing a space to be photographed, such as a large-scale building or a cityscape, by a system for creating three-dimensional data of the object space from a plurality of images arbitrarily photographed in the same photographing space. Thus, the stereoscopic data of the photographing target can be created. You can create highly realistic guidance systems, computer game stages, and backgrounds that actually walk around the city. It can provide tourist information in virtual reality in European and American cities and travel experiences as entertainment. The historical cityscape can be saved as highly realistic 3D data. It is also possible to virtually restore the cityscape from past landscape photos.

【0265】 都市計画のシュミレーションシステム
を構築できる。違法建築の調査にも用いることができ
る。最近ではCADの普及により設計時に3Dデータ化
されている建築物も多く、確認申請時に自治体がこうし
た3Dデータを取得、保存して行けば、次第に精緻な都
市データが構築されていく。 撮影する足場がない角度、危険性の高い場所など、
本来は撮影が難しい角度からでも、そこにいるようなリ
アリティの高い画像を作成することが可能になり、この
立体データ素材は映画などの場面に一つに組み込む、仮
想体験学習に用いるなどの用途が想定される。
A simulation system for city planning can be constructed. It can also be used to investigate illegal buildings. Recently, many buildings have been converted into 3D data at the time of design due to the spread of CAD, and if local governments acquire and store such 3D data at the time of confirmation application, increasingly sophisticated city data will be constructed. Angles where there is no foothold to shoot, places with high danger, etc.
This makes it possible to create images with a high degree of reality, even from angles that would otherwise be difficult to shoot, and this 3D data material can be integrated into scenes such as movies, used for virtual experience learning, etc. Is assumed.

【0266】航空写真から地表面の立体データ化を行う
にあたっても、従来は高額のシステムを用いて行ってい
た作業が安価なシステムで可能となり、その立体データ
を作成して、地図のみでなく立体模型も作製することが
できる。また、敷地調査や建物調査を行う場合において
も、撮影対象全体の立体データが得られるため、簡便な
測量手段、あるいは建物の傾斜などを調べる調査に用い
ることができる。
In converting the aerial photograph into three-dimensional data on the ground surface, the operation conventionally using a high-priced system can now be performed with an inexpensive system. Models can also be made. Also, when conducting a site survey or a building survey, three-dimensional data of the entire object to be photographed can be obtained, so that it can be used for simple surveying means or a survey for examining the inclination of a building.

【0267】ここまでの説明では、カメラはデジタルカ
メラを前提としたが、フィルムカメラとスキャナーを組
み合わせてもよく、ビデオカメラその他どのようなカメ
ラを用いても良い。GPSの代わりに、PHS、カーナ
ビその他位置情報を得る任意の手段を用いても良い。P
HSのような通信システムを用いて、撮影した画像デー
タと撮影地点データを無線で送信し、撮影時刻データを
不要としても良い。
In the above description, the camera is assumed to be a digital camera. However, a film camera and a scanner may be combined, or a video camera or any other camera may be used. Instead of the GPS, a PHS, a car navigation, or any other means for obtaining location information may be used. P
Using a communication system such as an HS, the captured image data and the imaging location data may be wirelessly transmitted, and the imaging time data may not be necessary.

【0268】操作者が行う確認その他の操作を不要とし
てもよい。例えば、撮影するカメラの仰角を自動的に記
録しておき、変数の初期値設定に用いる座標の位置を画
像分割、一対一対応終了時に自動的に選択し、その高さ
の座標を地図データと撮影地点データ、カメラの仰角か
ら自動的に算出するようにしてもよい。画像分割、一対
一対応を終了した段階で、同一領域の境界線の位置関係
から画面と視点の位置を自動的に求め、そこから初期値
を得るようにしてもよい。
The confirmation and other operations performed by the operator may not be necessary. For example, the elevation angle of the camera to be photographed is automatically recorded, the position of the coordinates used for setting the initial value of the variable is automatically selected at the end of the image division, one-to-one correspondence, and the coordinates of the height are used as the map data. It may be automatically calculated from the photographing point data and the elevation angle of the camera. When the image division and the one-to-one correspondence are completed, the position of the screen and the viewpoint may be automatically obtained from the positional relationship of the boundary line of the same area, and the initial value may be obtained therefrom.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 実施例1、2、3、4における各要素の構成
を表す図である。
FIG. 1 is a diagram illustrating a configuration of each element in Examples 1, 2, 3, and 4.

【図2】 実施例2における解析の流れを示した図であ
る。
FIG. 2 is a diagram showing a flow of analysis in a second embodiment.

【図3】 0042項から0043項に述べる、同一α
値線上において隣接する画素が対応する他方画面の画素
の位置関係を示した図である。
FIG. 3 is the same α described in the paragraphs 0042 to 0043.
FIG. 9 is a diagram illustrating a positional relationship between pixels on the other screen to which adjacent pixels on the value line correspond.

【図4】 0059項から0061項に述べる仮想画素
の画面上の位置を求める考え方を示した図である。
FIG. 4 is a diagram showing a concept of obtaining a position on a screen of a virtual pixel described in the items 0059 to 0061.

【図5】 0064項から0065項に述べる仮想画素
の画面上の位置を求める考え方を示した図である。
FIG. 5 is a diagram illustrating a concept of obtaining a position on a screen of a virtual pixel described in the items 0064 to 0065.

【図6】 0074項から0077項に述べる、座標が
既知の3点と画面と視点の位置関係を示した図である。
FIG. 6 is a diagram showing the positional relationship between three points whose coordinates are known, a screen, and a viewpoint described in the items 0074 to 0077.

【図7】 0155項から0160項における、光を感
知し始めた時刻と画素,感知し終わる時刻と画素、及び
仮想画素の位置関係を示した図である。
FIG. 7 is a diagram showing a positional relationship between a time at which light starts to be sensed and a pixel, a time at which sensing is completed, a pixel, and a virtual pixel in the items from 0155 to 0160.

【図8】 0225項から0229項における、彩度,
明度を比較する、同一α値線上に並ぶ3画素を表した図
である。
FIG. 8 shows the saturation,
FIG. 7 is a diagram illustrating three pixels arranged on the same α-value line for comparing brightness.

【図9】 0253項から0256項における、3枚以
上の画像を用いた場合に任意の2枚に於いて対応づけた
画素の対応関係の是非を残る画像を用いて確認する方法
を表した図である。
FIG. 9 is a diagram showing a method of checking the right or wrong of the correspondence relationship of the pixels associated with any two images using the remaining images when three or more images are used in the items 0253 to 0256. It is.

【図10】 0237項から0240項に於いて、一方
の画面にしか現れない特異点が存在する場合でも、単純
画素群の対応付けが可能なことを説明した図である。
FIG. 10 is a diagram illustrating that, in the sections from 0237 to 0240, a simple pixel group can be associated even when a singular point that appears only on one screen exists.

【図11】 0237項から0240項に於いて、一方
の画面にしか見えない箇所がある場合でも、単純画素群
の対応付けが可能なことを説明した図である。
FIG. 11 is a diagram illustrating that, in the sections from 0237 to 0240, a simple pixel group can be associated even when there is a portion that can be seen only on one screen.

【符号の説明】[Explanation of symbols]

図に表示されたnak、,nbp等はすべて画素の名称であ
る。
Nak, nbp, and the like displayed in the figure are all pixel names.

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 計測対象となる物体の表面に投影された
スリット光線を位置の異なる複数の視点に位置する撮影
手段から同時に計測するとともに、同じ空間に基準とな
る枠をおいて消点を計測して撮影手段の視点を求め、当
該複数の撮影手段から導かれる基本構図を重ねて照合
し、計測対象に投影されたスリット光線から計測対象表
面の各点の位置を特定して撮影の対象となった物体の立
体データを作成する方法であって、 前記複数の撮影手段から計測された複数の画像において
対応すべき画素が、当該複数の画像の視点と同一平面上
に位置することを条件として画素相互の対応関係を求
め、これに基づいて立体データを作成することを特徴と
する立体データ作成方法。
1. A slit light beam projected on the surface of an object to be measured is simultaneously measured from photographing means located at a plurality of viewpoints having different positions, and a vanishing point is measured in a same frame as a reference frame. Obtain the viewpoint of the photographing means, superimpose and compare the basic composition derived from the plurality of photographing means, specify the position of each point on the surface of the measurement target from the slit light beam projected on the measurement target, and A method for creating three-dimensional data of an object that has become, provided that pixels to be corresponded in a plurality of images measured from the plurality of photographing means are located on the same plane as a viewpoint of the plurality of images. A three-dimensional data creation method, wherein a correspondence between pixels is obtained, and three-dimensional data is created based on the relationship.
【請求項2】 計測対象となる物体の表面に投影された
スリット光線を位置の異なる複数の視点に位置する撮影
手段から同時に計測するとともに、同じ空間に基準とな
る枠をおいて消点を計測して撮影手段の視点を求め、当
該複数の撮影手段から導かれる基本構図を重ねて照合し
て視点と画面を同一座標系に配し、又は撮影対象上の座
標が不明の5点以上の対応する画素の位置関係から視点
と画面を同一座標系に配し、計測対象に投影されたスリ
ット光線から計測対象表面の各点の位置を特定して撮影
の対象となった物体の立体データを作成する方法であっ
て、 前記複数の撮影手段から計測された複数の画像における
各画素と視点を結んで作成される各画面毎の平面又は曲
面の交差によって形成される三次元空間上の直線又は曲
線に基づいて立体データを作成することを特徴とする立
体データ作成方法。
2. A slit light beam projected on the surface of an object to be measured is simultaneously measured from photographing means located at a plurality of viewpoints at different positions, and a vanishing point is measured in a reference frame in the same space. To determine the viewpoint of the photographing means, superimpose and compare the basic compositions derived from the plurality of photographing means, arrange the viewpoint and the screen in the same coordinate system, or handle five or more points whose coordinates on the photographing target are unknown. The viewpoint and the screen are arranged in the same coordinate system based on the positional relationship of the pixels to be measured, and the position of each point on the measurement target surface is specified from the slit light beam projected on the measurement target to create stereoscopic data of the object to be captured A straight line or curve in a three-dimensional space formed by the intersection of a plane or a curved surface for each screen created by connecting each pixel and a viewpoint in a plurality of images measured from the plurality of photographing means. On the basis of the Volumetric data creation method characterized by creating a body data.
【請求項3】 空間構造が未知の空間の複数の静止画像
を取り込み、その取り込んだ静止画像内の直線の位置関
係に基づいて前記静止画像に対する視点の位置を割り出
し、前記静止画像及び視点の情報に基づいて、前記静止
画像内の空間構造の立体データを作成する立体データ作
成における画像領域の一対一対応関係を判別する方法で
あって、 各画像からなる各画面を同一座標系に置き、異なる位置
から撮影した複数の静止画像を複数の画像領域に分割
し、当該複数の画像における各画像領域の一対一対応関
係を判別することを特徴とする画像領域対応関係判別方
法。
3. A still image in a space whose spatial structure is unknown is captured, a viewpoint position with respect to the still image is determined based on a positional relationship between straight lines in the captured still image, and the information of the still image and the viewpoint is obtained. Is a method of determining a one-to-one correspondence between image areas in three-dimensional data creation for creating three-dimensional data of a spatial structure in the still image based on the An image region correspondence determination method, comprising dividing a plurality of still images taken from a position into a plurality of image regions, and determining a one-to-one correspondence between the image regions in the plurality of images.
【請求項4】 空間構造が未知の空間の複数の静止画像
を取り込み、その取り込んだ静止画像内の座標が既知の
3又は4点の画素と対応関係のみ判明している2以下の
画素、あるいは対応関係のみ判明している7以下の画素
の位置関係から前記静止画像に対する視点の位置を割り
出し、前記複数の静止画像と視点の相対的位置関係を同
一の座標系において求める方法であって、 各画像からなる各画面を同一座標系に置き、異なる位置
から撮影した複数の静止画像を各複数の画像領域に分割
し、当該複数の画像における各画像領域の一対一対応関
係を判別することを特徴とする画像領域対応関係判別方
法。
4. A plurality of still images in a space whose spatial structure is unknown, and two or less pixels whose coordinates in the captured still image are known only in correspondence with three or four known pixels, or A method of determining a position of a viewpoint with respect to the still image from a positional relationship of 7 or less pixels for which only the correspondence is known, and determining a relative positional relationship between the plurality of still images and the viewpoint in the same coordinate system; Each screen composed of images is placed in the same coordinate system, a plurality of still images taken from different positions are divided into a plurality of image regions, and a one-to-one correspondence between the image regions in the plurality of images is determined. Image area correspondence determination method.
【請求項5】 請求項3又は請求項4記載の画像領域対
応関係判別方法を用い、 各二枚の画面の一対一対応している画像領域における対
応すべき画素が当該各二枚の画面の視点と同一平面上に
位置すること、及び当該同一平面上に位置する2点にお
いては一の画面上の左右の位置関係は他方画面上も同じ
左右の関係であるか又は同一点であることを条件として
画素単位での対応関係を求め、これに基づいて立体デー
タを作成することを特徴とする立体データ作成方法。
5. The method according to claim 3, wherein pixels corresponding to each of the two screens correspond to one-to-one image areas of the two screens. The two points located on the same plane with the viewpoint, and the right and left positional relationship on one screen at the two points located on the same plane must be the same left / right relationship or the same point on the other screen A three-dimensional data creation method, wherein a correspondence relationship in pixel units is obtained as a condition, and three-dimensional data is created based on the relationship.
【請求項6】 請求項4記載の画像領域対応関係判別方
法を用い、 各二枚の画面の一対一対応している画像領域における一
対一対応した画像領域の境界線上の対応すべき画素が当
該複数の画面の視点と同一平面上に位置すること、及び
当該同一平面上に位置する2点においては一の画面上の
左右の位置関係は他方画面上も同じ左右の関係であるこ
とを条件として画素単位での対応関係を特定し、撮影対
象の一部の立体データを作成することを特徴とする立体
データ作成方法。
6. A method according to claim 4, wherein the corresponding pixels on the boundary between the one-to-one corresponding image areas in the one-to-one corresponding image areas of the two screens are determined. On the condition that they are located on the same plane as the viewpoints of a plurality of screens, and that the right and left positional relationship on one screen is the same on the other screen at two points located on the same plane. A three-dimensional data creation method characterized by identifying a correspondence relationship in pixel units and creating a part of three-dimensional data of a shooting target.
【請求項7】 請求項5又は請求項6記載の立体データ
作成方法において、 撮影時に得られた撮影地点の位置情報と前記外部空間の
地図情報に基づき同一撮影対象空間を撮影した複数の画
像を選別し、前記撮影対象外部空間内の3点以上の大凡
の座標又は基本構図を得て、前記複数の画面と視点の位
置を同一の座標系におくことを特徴とする立体データ作
成方法。
7. The method for creating three-dimensional data according to claim 5, wherein a plurality of images obtained by photographing the same photographing target space based on positional information of a photographing point obtained at the time of photographing and map information of the external space are obtained. A stereoscopic data generating method for selecting three or more approximate coordinates or a basic composition in the external space to be photographed, and setting the positions of the plurality of screens and the viewpoint in the same coordinate system;
【請求項8】 請求項5又は請求項6記載の立体データ
作成方法において、 任意の同一座標系に配した前記各二枚の画面の視点と同
一平面上に位置する、前記各二枚の画面上の直線上に配
された画素に対して、色データの彩度、明度の極大値、
極小値又は特異な値を持つ画素の並ぶ順序が各画面にお
いて一致することを条件として、画素単位の対応付けを
行うことを特徴とする立体データ作成方法。
8. The three-dimensional data creating method according to claim 5, wherein each of the two screens is located on the same plane as a viewpoint of each of the two screens arranged in an arbitrary same coordinate system. For the pixels arranged on the upper straight line, the saturation of color data, the maximum value of lightness,
A three-dimensional data creation method, wherein pixel-by-pixel correspondence is performed on the condition that the order in which pixels having a local minimum value or a unique value are aligned in each screen.
【請求項9】 請求項5又は請求項6記載の立体データ
作成方法において、 同一座標系に配した3枚以上の画面を用いて画素の対応
付けを行う場合に、任意の二枚の画面において対応付け
た画素と前記二枚以外の画面において対応付けられる画
素が、前記二枚以外の画面の視点、前記各二枚の内のそ
れぞれの視点及び前記対応付けた画素と同一平面上にあ
ることを利用して、前記二枚以外の画面上の画素の位置
を求め、その色データから前記対応付けた画素の対応付
けの良否を判定することを特徴とする立体データ作成方
法。
9. The three-dimensional data creation method according to claim 5, wherein when two or more screens arranged on the same coordinate system are used to associate pixels, any two of the screens are displayed. The associated pixels and the pixels associated with the screen other than the two screens are on the same plane as the viewpoints of the screens other than the two screens, the respective viewpoints of the two screens, and the associated pixels. A three-dimensional data creation method, wherein the position of a pixel on the screen other than the two pixels is determined using the color data, and the quality of the association of the associated pixel is determined from the color data.
【請求項10】 複数の撮影手段と、 計測対象となる物体の表面にスリット光線を投影するス
リット光源と、 前記計測対象となる物体の表面に投影されたスリット光
線を、位置の異なる複数の視点に位置する前記撮影手段
から同時に計測するとともに、同じ空間に基準となる枠
をおいて消点を計測して撮影手段の視点を求める計算手
段と、 前記複数の撮影手段から導かれる基本構図を重ねて照合
し、計測対象に投影されたスリット光線から計測対象表
面の各点の位置を特定して撮影の対象となった物体の立
体データを作成する生成手段とを備え、 前記生成手段は、前記複数の撮影手段から計測された複
数の画像において対応すべき画素が、当該複数の画像の
視点と同一平面上に位置することを条件として画素相互
の対応関係を求め、これに基づいて立体データを作成す
ることを特徴とする立体データ作成装置。
10. A plurality of photographing means, a slit light source for projecting a slit light beam on a surface of an object to be measured, and a plurality of viewpoints having different positions of the slit light beam projected on the surface of the object to be measured. And simultaneously calculating the vanishing point in the same space and measuring the vanishing point in the same space to obtain the viewpoint of the photographing means, and superimposing the basic composition derived from the plurality of photographing means. Generating means for identifying the position of each point on the measurement target surface from the slit light beam projected on the measurement target and creating three-dimensional data of the object to be photographed, the generation means, Pixels to be corresponded in a plurality of images measured from a plurality of photographing means are determined on the condition that they are located on the same plane as the viewpoints of the plurality of images. Stereoscopic data creating apparatus characterized by creating a three-dimensional data Zui.
【請求項11】 複数の撮影手段と、 計測対象となる物体の表面にスリット光線を投影するス
リット光源と、 前記計測対象となる物体の表面に投影されたスリット光
線を、位置の異なる複数の視点に位置する前記撮影手段
から同時に計測するとともに、同じ空間に基準となる枠
をおいて消点を計測して撮影手段の視点を求める計算手
段と、 前記複数の撮影手段から導かれる基本構図を重ねて照合
して視点と画面を同一座標系に配し、又は撮影対象上の
座標が不明の5点以上の対応する画素の位置関係から視
点と画面を同一座標系に配し、計測対象に投影されたス
リット光線から計測対象表面の各点の位置を特定して撮
影の対象となった物体の立体データを作成する生成手段
をを備え、 前記生成手段は、前記複数の撮影手段から計測された複
数の画像における各画素と視点を結んで作成される各画
面毎の平面又は曲面の交差によって形成される三次元空
間上の直線又は曲線に基づいて立体データを作成するこ
とを特徴とする立体データ作成装置。
11. A plurality of photographing means, a slit light source for projecting a slit light beam on a surface of an object to be measured, and a plurality of viewpoints having different positions of the slit light beam projected on the surface of the object to be measured. And simultaneously calculating the vanishing point in the same space and measuring the vanishing point in the same space to obtain the viewpoint of the photographing means, and superimposing the basic composition derived from the plurality of photographing means. The viewpoint and the screen are arranged in the same coordinate system, or the viewpoint and the screen are arranged in the same coordinate system based on the positional relationship of five or more corresponding pixels whose coordinates on the object to be photographed are unknown, and projected onto the measurement object. Generating means for identifying the position of each point on the surface to be measured from the slit light beam and creating three-dimensional data of the object to be photographed, the generating means being measured from the plurality of photographing means Duplicate Creating three-dimensional data based on a straight line or a curve in a three-dimensional space formed by the intersection of a plane or a curved surface for each screen created by connecting each pixel in the image and the viewpoint. apparatus.
【請求項12】 複数の撮影手段と、 前記複数の撮影手段から空間構造が未知の空間の複数の
静止画像を取り込み、その取り込んだ静止画像内の直線
の位置関係に基づいて前記静止画像に対する視点の位置
を割り出す計算手段と、 前記静止画像及び視点の情報に基づいて、前記静止画像
内の空間構造の立体データを作成する立体データ作成に
おける画像領域の一対一対応関係を判別し、撮影の対象
となった物体の立体データを作成する生成手段とを備
え、 前記生成手段は、各画像からなる各画面を同一座標系に
置き、異なる位置から撮影した複数の静止画像を複数の
画像領域に分割し、当該複数の画像における各画像領域
の一対一対応関係を判別し、これに基づいて立体データ
を作成することを特徴とする立体データ作成装置。
12. A plurality of photographing means, and a plurality of still images in a space having an unknown spatial structure are fetched from the plurality of photographing means, and a viewpoint to the still image is determined based on a positional relationship of straight lines in the fetched still images. Calculating means for calculating the position of the image, and determining a one-to-one correspondence between image regions in three-dimensional data creation for creating three-dimensional data of a spatial structure in the still image based on the still image and viewpoint information. Generating means for generating three-dimensional data of the object that has become, wherein the generating means divides a plurality of still images taken from different positions into a plurality of image areas by placing each screen composed of images in the same coordinate system. A three-dimensional data creating apparatus that determines one-to-one correspondence between image areas in the plurality of images, and creates three-dimensional data based on the one-to-one correspondence.
【請求項13】 複数の撮影手段と、 前記複数の撮影手段から空間構造が未知の空間の複数の
静止画像を取り込み、その取り込んだ静止画像内の座標
が既知の3又は4点の画素と対応関係のみ判明している
2以下の画素、あるいは対応関係のみ判明している7以
下の画素の位置関係から前記静止画像に対する視点の位
置を割り出す計算手段と、 前記複数の静止画像と視点の相対的位置関係を同一の座
標系において求め、撮影の対象となった物体の立体デー
タを作成する生成手段とを備え、 前記生成手段は、各画像からなる各画面を同一座標系に
置き、異なる位置から撮影した複数の静止画像を各複数
の画像領域に分割し、当該複数の画像における各画像領
域の一対一対応関係を判別し、これに基づいて立体デー
タを作成することを特徴とする立体データ作成装置。
13. A plurality of photographing means, and a plurality of still images in a space having an unknown spatial structure are fetched from the plurality of photographing means, and the fetched still images correspond to three or four pixels whose coordinates are known. Calculating means for determining the position of the viewpoint with respect to the still image from the positional relationship between two or less pixels whose relationship is known only, or seven or less pixels whose only correspondence is known; Generating means for obtaining the positional relationship in the same coordinate system and creating three-dimensional data of the object to be photographed, wherein the generating means places each screen composed of images in the same coordinate system, and The method is characterized in that a plurality of photographed still images are divided into a plurality of image regions, a one-to-one correspondence between the image regions in the plurality of images is determined, and three-dimensional data is created based on the correspondence. 3D data creation device.
【請求項14】 前記生成手段は、さらに、各二枚の画
面の一対一対応している画像領域における対応すべき画
素が当該各二枚の画面の視点と同一平面上に位置するこ
と、及び当該同一平面上に位置する2点においては一の
画面上の左右の位置関係は他方画面上も同じ左右の関係
であるか又は同一点であることを条件として画素単位で
の対応関係を求め、これに基づいて立体データを作成す
ることを特徴とする請求項12又は請求項13記載の立
体データ作成装置。
14. The generation unit further includes: a pixel to be corresponded in an image region corresponding to each of the two screens in a one-to-one correspondence, being located on the same plane as a viewpoint of each of the two screens; At the two points located on the same plane, the left and right positional relationship on one screen is the same left and right relationship on the other screen or the same relationship is determined on a pixel-by-pixel basis, 14. The three-dimensional data creating apparatus according to claim 12, wherein three-dimensional data is created based on the three-dimensional data.
【請求項15】 前記生成手段は、さらに、各二枚の画
面の一対一対応している画像領域における一対一対応し
た画像領域の境界線上の対応すべき画素が当該複数の画
面の視点と同一平面上に位置すること、及び当該同一平
面上に位置する2点においては一の画面上の左右の位置
関係は他方画面上も同じ左右の関係であることを条件と
して画素単位での対応関係を特定し、撮影対象の一部の
立体データを作成することを特徴とする請求項13記載
の立体データ作成装置。
15. The image forming apparatus according to claim 1, further comprising: a corresponding pixel on a boundary between the image areas corresponding to each other in the one-to-one correspondence of the two screens is the same as the viewpoint of the plurality of screens. On the condition that the two points located on the same plane and the two points located on the same plane have the same left and right positional relationship on one screen, the corresponding relationship on a pixel basis must be the same. 14. The three-dimensional data creating apparatus according to claim 13, wherein the three-dimensional data of a part to be photographed is identified and created.
【請求項16】 前記生成手段は、さらに、撮影時に位
置計測手段により得られた撮影地点の位置情報と前記外
部空間の地図情報に基づき同一撮影対象空間を撮影した
複数の画像を選別し、前記撮影対象外部空間内の3点以
上の大凡の座標又は基本構図を得て、前記複数の画面と
視点の位置を同一の座標系におくことを特徴とする請求
項14又は請求項15記載の立体データ作成装置。
16. The image processing apparatus according to claim 1, wherein the generation unit further selects a plurality of images obtained by shooting the same shooting target space based on position information of a shooting point obtained by the position measurement unit at the time of shooting and map information of the external space. 16. The three-dimensional object according to claim 14, wherein three or more approximate coordinates or a basic composition in the external space to be photographed are obtained, and the positions of the plurality of screens and the viewpoint are set in the same coordinate system. Data creation device.
【請求項17】 前記生成手段は、さらに、任意の同一
座標系に配した前記各二枚の画面の視点と同一平面上に
位置する、前記各二枚の画面上の直線上に配された画素
に対して、色データの彩度、明度の極大値、極小値又は
特異な値を持つ画素の並ぶ順序が各画面において一致す
ることを条件として、画素単位の対応付けを行うことを
特徴とする請求項15又は請求項16記載の立体データ
作成装置。
17. The apparatus according to claim 17, wherein the generating unit is further arranged on a straight line on each of the two screens, which is located on the same plane as a viewpoint of each of the two screens arranged on an arbitrary coordinate system. For pixels, the saturation of color data, the maximum value of brightness, the minimum value, or the order in which pixels having unique values are lined up is matched on each screen on a condition that pixel-by-pixel correspondence is performed. The three-dimensional data creation device according to claim 15 or 16, which performs the three-dimensional data creation.
【請求項18】 前記生成手段は、さらに、同一座標系
に配した3枚以上の画面を用いて画素の対応付けを行う
場合に、任意の二枚の画面において対応付けた画素と前
記二枚以外の画面において対応付けられる画素が、前記
二枚以外の画面の視点、前記各二枚の内のそれぞれの視
点及び前記対応付けた画素と同一平面上にあることを利
用して、前記二枚以外の画面上の画素の位置を求め、そ
の色データから前記対応付けた画素の対応付けの良否を
判定することを特徴とする請求項15又は請求項16記
載の立体データ作成装置。
18. The image processing apparatus according to claim 18, further comprising: when three or more screens arranged in the same coordinate system are used for associating pixels with each other, the pixels associated with any two screens and the two or more screens. Pixels associated with screens other than the two, using the viewpoints of the screens other than the two, the viewpoint of each of the two and the corresponding pixels on the same plane, using the two 17. The three-dimensional data creating apparatus according to claim 15, wherein a position of a pixel on the screen other than the image data is obtained, and the quality of the association of the associated pixel is determined based on the color data.
【請求項19】 少なくとも1つの端末と、その端末に
通信ネットワークを介して接続され、少なくとも請求項
1、4、5、6、7、8又は9記載の立体データ作成方
法を用いて立体データ作成処理を行うサーバとを備え、 前記端末は、空間構造が未知の空間の複数の静止画像デ
ータを入力する手段と、 その入力された空間構造が未知の空間の複数の静止画像
データを前記通信ネットワークを介してサーバに送信す
る手段と、 前記サーバから送信されたデータ及び情報を受信し、受
信したデータを表示又は出力する手段とを有し、 前記サーバは、前記端末から送信された空間構造が未知
の空間の複数の静止画像データを受信する手段と、 受信した複数の静止画像データから、撮影対象空間の立
体データ及び同一座標系に置いた前記複数の静止画像か
らなる複数の画面と視点の位置情報の少なくとも1つを
作成する手段と、 作成した立体データ及び位置情報を前記端末に送信し、
前記端末から表示又は出力させる手段とを有することを
特徴とする立体データ作成システム。
19. Three-dimensional data creation using at least one terminal and the three-dimensional data creation method according to at least one of claims 1, 4, 5, 6, 7, 8, and 9 connected to the terminal via a communication network. A server for performing processing, wherein the terminal is configured to input a plurality of still image data in a space whose space structure is unknown, and the plurality of still image data in the space whose space structure is unknown is transmitted to the communication network. And means for receiving data and information transmitted from the server, and displaying or outputting the received data, wherein the server has a spatial structure transmitted from the terminal. Means for receiving a plurality of still image data in an unknown space; and a plurality of three-dimensional data in an imaging target space and the plurality of still images placed in the same coordinate system from the plurality of received still image data. Send means for creating at least one of position information of a plurality of screens and viewpoint including images, stereoscopic data and position information created in the terminal,
Means for displaying or outputting from the terminal.
【請求項20】 少なくとも1つの端末と、その端末に
通信ネットワークを介して接続され、少なくとも請求項
1、4、5、6、7、8又は9記載の立体データ作成方
法を用いて立体データ作成処理を行うサーバとを備え、 前記端末は、空間構造が未知の空間の複数の静止画像デ
ータを入力する手段と、 その入力された空間構造が未知の空間の複数の静止画像
データを前記通信ネットワークを介してサーバに送信す
る手段と、 前記サーバから送信されたデータ及び情報を受信し、受
信したデータを表示又は出力する手段とを有し、 前記サーバは、前記端末から送信された空間構造が未知
の空間の複数の静止画像データを受信する手段と、 受信した複数の静止画像データから、撮影対象空間の立
体データ及び同一座標系に置いた前記複数の静止画像か
らなる複数の画面と視点の位置情報を作成する手段と、 作成した撮影対象空間の立体データ及び視点の位置情報
に基づいて、画像データを作成する手段と、 作成した画像データを前記端末に送信し、前記端末から
表示又は出力させる手段とを有することを特徴とする立
体データ作成システム。
20. At least one terminal and connected to the terminal via a communication network, and the three-dimensional data creation method according to at least one of claims 1, 4, 5, 6, 7, 8 and 9. A server for performing processing, wherein the terminal is configured to input a plurality of still image data in a space whose space structure is unknown, and the plurality of still image data in the space whose space structure is unknown is transmitted to the communication network. And means for receiving data and information transmitted from the server, and displaying or outputting the received data, wherein the server has a spatial structure transmitted from the terminal. Means for receiving a plurality of still image data in an unknown space; and a plurality of three-dimensional data in an imaging target space and the plurality of still images placed in the same coordinate system from the plurality of received still image data. Means for creating positional information of a plurality of screens and viewpoints composed of images; means for creating image data based on the created stereoscopic data of the imaging target space and the positional information of the viewpoint; and sending the created image data to the terminal. Means for transmitting and displaying or outputting from the terminal.
【請求項21】 少なくとも1つの端末と、その端末に
通信ネットワークを介して接続され、少なくとも請求項
1、4、5、6、7、8又は9記載の立体データ作成方
法を用いて立体データ作成処理を行うサーバとを備え、 前記端末は、空間構造が未知の空間の複数の静止画像デ
ータ及び視点の位置情報を入力する手段と、 その入力された空間構造が未知の空間の複数の静止画像
データ及び視点の位置情報を前記通信ネットワークを介
してサーバに送信する手段と、 前記サーバから送信されたデータ及び情報を受信し、受
信したデータを表示又は出力する手段とを有し、 前記サーバは、前記端末から送信された空間構造が未知
の空間の複数の静止画像データ及び視点の位置情報を受
信する手段と、 受信した複数の静止画像データから、撮影対象空間の立
体データを作成する手段と、 作成した撮影対象空間の立体データ及び前記端末から送
信された視点の位置情報に基づいて、画像データを作成
する手段と、 作成した画像データを前記端末に送信し、前記端末から
表示又は出力させる手段とを有することを特徴とする立
体データ作成システム。
21. At least one terminal and connected to the terminal via a communication network, and the three-dimensional data creation method according to at least one of claims 1, 4, 5, 6, 7, 8, and 9. Means for inputting a plurality of still image data in a space whose spatial structure is unknown and position information of a viewpoint, and a plurality of still images in a space whose input spatial structure is unknown. Means for transmitting data and position information of the viewpoint to a server via the communication network; receiving data and information transmitted from the server; and displaying or outputting the received data. Means for receiving a plurality of still image data in a space whose spatial structure is unknown and position information of a viewpoint transmitted from the terminal; Means for creating three-dimensional data of the elephant space; means for creating image data based on the created three-dimensional data of the imaging target space and the position information of the viewpoint transmitted from the terminal; and sending the created image data to the terminal. Means for transmitting and displaying or outputting from the terminal.
JP2000130350A 2000-03-06 2000-04-28 Method, device and system for preparing three- dimensional data Pending JP2001324310A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000130350A JP2001324310A (en) 2000-03-06 2000-04-28 Method, device and system for preparing three- dimensional data

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000107274 2000-03-06
JP2000-107274 2000-03-06
JP2000130350A JP2001324310A (en) 2000-03-06 2000-04-28 Method, device and system for preparing three- dimensional data

Publications (1)

Publication Number Publication Date
JP2001324310A true JP2001324310A (en) 2001-11-22

Family

ID=26589739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000130350A Pending JP2001324310A (en) 2000-03-06 2000-04-28 Method, device and system for preparing three- dimensional data

Country Status (1)

Country Link
JP (1) JP2001324310A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114916A (en) * 2005-10-19 2007-05-10 Kazuo Iwane Old/new video image coordinate integration unit
KR101358454B1 (en) 2013-12-16 2014-02-05 (주)한성개발공사 Urban planning historic information providing system having time series viewer
JP2014178124A (en) * 2013-03-13 2014-09-25 Ricoh Co Ltd Three-dimensional measurement system, program and method
CN112632675A (en) * 2020-12-22 2021-04-09 上海市建工设计研究总院有限公司 Building structure reverse axis modeling method
CN115253266A (en) * 2015-11-19 2022-11-01 天使集团股份有限公司 Coin counting system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007114916A (en) * 2005-10-19 2007-05-10 Kazuo Iwane Old/new video image coordinate integration unit
JP2014178124A (en) * 2013-03-13 2014-09-25 Ricoh Co Ltd Three-dimensional measurement system, program and method
KR101358454B1 (en) 2013-12-16 2014-02-05 (주)한성개발공사 Urban planning historic information providing system having time series viewer
CN115253266A (en) * 2015-11-19 2022-11-01 天使集团股份有限公司 Coin counting system
CN112632675A (en) * 2020-12-22 2021-04-09 上海市建工设计研究总院有限公司 Building structure reverse axis modeling method

Similar Documents

Publication Publication Date Title
US10896497B2 (en) Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method
CN112150575B (en) Scene data acquisition method, model training method and device and computer equipment
JP6088094B1 (en) System for creating a mixed reality environment
Bernardini et al. Building a digital model of Michelangelo's Florentine Pieta
US8963943B2 (en) Three-dimensional urban modeling apparatus and method
Bostanci et al. Augmented reality applications for cultural heritage using Kinect
US7398481B2 (en) Virtual environment capture
Beraldin et al. Virtualizing a Byzantine crypt by combining high-resolution textures with laser scanner 3D data
US5819016A (en) Apparatus for modeling three dimensional information
US20090237396A1 (en) System and method for correlating and synchronizing a three-dimensional site model and two-dimensional imagery
CN105190703A (en) Using photometric stereo for 3D environment modeling
Murphy et al. Developing historic building information modelling guidelines and procedures for architectural heritage in Ireland
JP6310149B2 (en) Image generation apparatus, image generation system, and image generation method
JP2018106661A (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
Mahdy et al. Projector calibration using passive stereo and triangulation
CN106846413A (en) The device and method that three-dimensional tree-shaped rectangular coordinate system is built and image space is demarcated
CN106067160B (en) Large screen merges projecting method
Reitinger et al. Augmented reality scouting for interactive 3d reconstruction
JP2021152935A (en) Information visualization system, information visualization method, and program
Dorffner et al. Generation and visualization of 3D photo-models using hybrid block adjustment with assumptions on the object shape
JP2001324310A (en) Method, device and system for preparing three- dimensional data
JP6253834B1 (en) Virtual work display method, virtual work data creation method, and three-dimensional space marking data creation method
JP2017228268A (en) System for creating mixed reality environment
Habib et al. Integration of lidar and airborne imagery for realistic visualization of 3d urban environments
EP3779878A1 (en) Method and device for combining a texture with an artificial object